Bah vad jag är nära att köpa ett 5870!!

Permalänk
Medlem

Det är en enda grej som går i alla trådar som off topic nu .... och jag är less att läsa om nvidias avstängning av phys-x där ett aktivt ati kort är installerat för att köra 3d aplikationer, jävla less. Om jag öppnar en tråd och vill läsa om den saken finns redan flera stora trådar om det, infisera inte hela forumet med den skiten, det är avklarat och kommer förbli så.

Permalänk
Citat:

Ursprungligen inskrivet av dansk1
Att Batman AA inte är optimerat bra för AMD:s kort beror på att Nvidia varit där med programvara till utvecklarna (enligt dig) och den programvaran är säkert optimerad på ett sätt så AMD:s G-kort hamnar på efterkälken.
Sedan tycker JAG att det är KRIMINELLT att som G-korts utvecklare ge kod på det sättet till spel tillverkare. De båda ska självklart ge dem den senaste hårdvaran men som programmerare ska man inte köpas!!!
Klart är det ju att Nvidia har varit några rejäla svin på den fronten.... att folk fortfarande göder dessa.... nåja det måste finnas 2 läger

Nej, det beror helt och hållet på att AMD inte erbjöd samma support till Rocksteady som Nvidia gjorde. Att Rocksteady (eller Eidos, som utgivare) sedan valde att helt disable'a AA stödet för icke Nvidia kort är givetvis pga att det var otestat på annat än just Nvidia kort. Det finns ingenting i TWIMTBP som säger att en spelutvecklare inte kan samarbeta med både AMD och TWIMTBP (Nvidia) samtidigt.

Sedan ska man väl inte glömma att hade det inte varit för TWIMTBP hade spelindustrin på PC varit, om inte död, mycket mindre än det den redan är. Om man ser bort ifrån hardcore gamers, vilka inte är många till antalet om man ser på branchen som helhet, så köper de flesta idag en spelkonsol för att spela på. Det blir helt enkelt för mycket 'jobb' för en normal spelinteresserad kille att läsa upp och lära sig om grafikkort, uppdatera drivrutiner, installera patchar etc etc för att kunna spela ett spel någon timma efter jobbet nu och då. Den enda orsaken till att [endel] utvecklare fortfarande spenderar tid (och därmed pengar) på förbättringar på sina PC ports är just pga samarbetsmöjligheterna Nvidia ger.

Detta är givetvis en av orsakerna till att Nvidia satsar mer och mer på cGPU än enbart gamer kort.

Man kan hata Nvidia så mycket man vill, men de tillför mycket till branchen som inte är synligt vid första ögonkast. Ta CUDA f.ex., detta är Nvidias proprietära gpGPU lösning, men det är inte deras enda gpgpu lösning, de stöder, redan, OpenCL och DC med native C++, Fortran, Matlab etc etc på gång. AMD på sin sida har historiskt endast haft en - med OpenCL/DC stöd utlovat över längre tid. GMen för OpenCL's working group är till och med Nvidia anställd.

Eller ta PhysX, Nvidia erbjöd AMD att ta del av detta (de gjorde även det mesta av jobbet åt dem) men fick nobben - ändå är det Nvidia som ses som bovarna här?!?

Ska kanske tillägga att jag inte är en gamer (jag spelar på Xbox360, PS3 och Wii - i den ordningen) och använder PC mestadels till utveckling/annat arbete (ok, spelar Fallout 3 på PC just nu men det är första PC spelet jag testat på åtskilliga år). Detta färgar givetvis mitt syn något då AMD hittils inte har erbjudit kort för gpGPU användning (i större grad).

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av emigrating12

Eller ta PhysX, Nvidia erbjöd AMD att ta del av detta (de gjorde även det mesta av jobbet åt dem) men fick nobben - ändå är det Nvidia som ses som bovarna här?!?

Vi vet inte varför AMD tackade nej. Nvidia kanske ville ha hutlösa licensavgifter eller något liknande.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av shagy
Det är en enda grej som går i alla trådar som off topic nu .... och jag är less att läsa om nvidias avstängning av phys-x där ett aktivt ati kort är installerat för att köra 3d aplikationer, jävla less. Om jag öppnar en tråd och vill läsa om den saken finns redan flera stora trådar om det, infisera inte hela forumet med den skiten, det är avklarat och kommer förbli så.

Bara för att du som en av forumets största nVidia fanboys tycker det vara avklarat så kanske inte andra tycker det? Oavsett tiden som går så är det fortfarande lika fel och inget som ska glömmas bort.

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Essin
Bara för att du som en av forumets största nVidia fanboys tycker det vara avklarat så kanske inte andra tycker det? Oavsett tiden som går så är det fortfarande lika fel och inget som ska glömmas bort.

Klart det kommer glömmas bort med tiden, precis som alla andras snekliv, alla företag har varit där trots allt. Ska vi dra i gammalt groll hela tiden blir det aldrig lugn.

Det sagt så ser jag inget fel i det egentligen, men visst var det surt för de som tog risken att prova att köra så medans det funkade.

Visa signatur

The cookie goes *crumble*.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av emigrating12
Instämmer, det som kostar är R&D och [till viss grad] QA. Båda vilka är saker jag mer än gärna betalar för.

En annan enorm faktor, större än R&D, är kostnaden för fabrikerna.

Det finns nyheter om att Intel spenderar/spenderade 7 miljarder dollar på att uppgradera bara tre (!) fabriker till 32nm processen.

Det är pengar som måste fås tillbaka de första två-tre åren ty efter det blir inkomsterna avsevärt lägre när mest vinstgivande produktionerna byter till nyare tillverkningsprocesser.

Nu är jag inte säker på hur mycket TSMC betlar för sina fabbar men jag skulle tippa på något i samma bollpark.

Produktionsmaterialiet i sig, är precis som många har skrivit, egentligen inte värst dyrt.

Citat:

Ursprungligen inskrivet av dansk1
Att Batman AA inte är optimerat bra för AMD:s kort beror på att Nvidia varit där med programvara till utvecklarna (enligt dig) och den programvaran är säkert optimerad på ett sätt så AMD:s G-kort hamnar på efterkälken.
Sedan tycker JAG att det är KRIMINELLT att som G-korts utvecklare ge kod på det sättet till spel tillverkare. De båda ska självklart ge dem den senaste hårdvaran men som programmerare ska man inte köpas!!!
Klart är det ju att Nvidia har varit några rejäla svin på den fronten.... att folk fortfarande göder dessa.... nåja det måste finnas 2 läger

Intel gör samma sak, men då på CPU-fronten.

Som enterprise-utvecklare så har man oftast mycket bättre kommunkation med Intel än med AMD och utvecklar därmed sin mjukvara främst mot Intels processorer. Självklart har de inte kapacitet att "skriva koden åt en" utan hjälper en på andra sätt, som t.ex. att ha en aktiv dialog och fråga runt om vad som skulle kunna tänkas vara intressant att lägga till i nästa version av processorn.

Tanken bakom det hela är självklart att enterprise-utvecklarna förhoppningsvis ska då föreslå för sina kunder att köpa Intel-system, ty det är på dem som det fungerar bäst...

Visa signatur

"Nothing is impossible because impossible itself says I M Possible..."

Permalänk
Citat:

Ursprungligen inskrivet av P1nGviN
Vi vet inte varför AMD tackade nej. Nvidia kanske ville ha hutlösa licensavgifter eller något liknande.

Sant, men om man ser på andra licensavgifter som Nvidia kräver för andra tekniker verkar det mindre troligt att just licensavgiften skulle varit ett hinder. Visst hade det kostat AMD några dollar per kort, men det är inte värre än att AMD hade kommit ut med två kortmodeller - ett med och ett utan PhysX, om det visade sig efter 6 månader att PhysX korten inte sålde alls hade de kunnat stoppa "produktionen" av PhysX enabled kort utan någon märkbar kostnad/förlust - det var/är en ren software lösning då vi faktiskt har sett Radeon kort köra PhysX tidigare.

Det som är mer troligt är att AMD helt enkelt gjorde en "bad decision" och de som blev lidande var konsumenterna. Havok, som AMD istället valde var mer in line med AMD's "open" strategi än PhysX (enligt AMD själva - vilket är roligt då Havok är Intel ägda). Numera hävdar dock AMD att deras fysikmotor kommer vara "Bullet" vilket är en Open Source engine. Denna portas just nu till Open CL (med AMDs hjälp) och kommer kunna köras på alla kort som stöder just OpenCL - det roliga här är ju att AMD ligger långt efter Nvidia även i OpenCL stöd (sist jag kollade fanns det fortfarande inte OpenCL drivare för Radeon kort) och att Erwin Coumans (Bullet Physics skapare) har sagt att "acceleration via OpenCL will work with any compliant drivers, we use NVIDIA GeForce cards for our development and even use code from their OpenCL SDK, they are a great technology partner".

Open source i all ära, men 99% av dagens spel är beroende av en proprietär teknologi ändå, nämligen DirectX, så att ha OpenSource fysik, PhysX, Bullet eller Havok spelar egentligen liten roll för utvecklarna - det som är viktigt är att alla kort kan använda den valda tekniken; vilket var möjligt redan för över ett år sedan med just PhysX.

Citat:

Ursprungligen inskrivet av Weeblie
En annan enorm faktor, större än R&D, är kostnaden för fabrikerna.

Givetvis, men detta blir ju en indirekt kostnad för Nvidia (och AMD) då priset för fabriken är inbakat i priset klienterna (i detta fallet både AM och Nvidia) betalar per chip.

Citat:

Ursprungligen inskrivet av Weeblie
Självklart har de inte kapacitet att "skriva koden åt en" utan hjälper en på andra sätt, som t.ex. att ha en aktiv dialog och fråga runt om vad som skulle kunna tänkas vara intressant att lägga till i nästa version av processorn.

Tanken bakom det hela är självklart att enterprise-utvecklarna förhoppningsvis ska då föreslå för sina kunder att köpa Intel-system, ty det är på dem som det fungerar bäst...

Precis, och just den dialogen man har, samt det att de (i ditt tilfälle, Intel) är mer on-the-ball med hjälp och intern testning av kod är värdt mycket mycket mer än de $100 miljoner eller så som Nvidia kostar på TWIMTBP varje år.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av emigrating12

Eller ta PhysX, Nvidia erbjöd AMD att ta del av detta (de gjorde även det mesta av jobbet åt dem) men fick nobben - ändå är det Nvidia som ses som bovarna här?!?

Enligt AMD har Nvidia aldrig gett dem ett direkt erbjudande att licensiera PhysX.

Folk blir ofta stensäkra på hur det egentligen "gick till" när de vill att det "gick till" på ett särsklit sett även om de inte har en aning.

Ta inte illa upp men jag ser flera exempel i dina två inlägg här som indikerar att du inte vet mer än vi andra utan bara tar för givet en viss sida av myntet är sann och predikar det som fakta.

Exemplet ovan är bara ett.

Mvh

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Avstängd

PhysX var ett märke utvecklat av aegia med kort etc...
Finns det en öppen källkod kan spelen direkt kodas för båda korten utan extra jobb.
I Dagsläget får vi vänta på att en standard vinner.

Liknande blueray/HD , vhs/betacam, LP/CD etc...

PhysX är inget argument än för val av kort.

Visa signatur

Träna bort dyslexin. Ryzen 3600 - asus B350plus - Msi Vega56 - Acer 1440p 144hz - M.2 ssd - asus essence stx - Sennheiser hd600 - Corsair 750w - 16gb ram 3ghz - atcs 840 - luftkylt - Felsökning? (Lär dig Googla)

Permalänk
Citat:

Ursprungligen inskrivet av Catman
HAHA Ännu en som kommer ångra sig om ett par månader när vi andra som väntat handlar samma kort eller bättre från nvidia mycket billigare hihihihihihihih

Iallafall billigare ATi kort..Nä jag väntar mitt 4870 hänger med bra ännu

Eh.. ja fast när nvidia har lanserat Fermi så kommer AMD med HD5890, och några månader efter det kommer nvidia med GeForce 385, och några månader efter det kommer AMD med HD6100, och några månader efter det kommer nvidia med GeForce 390.
Summa summarum: ännu en (du) som kommer ångra dig om 50 år att du köpte GeForce 380 när vi andra kör med grafikkort som kör Crysis med högsta grafikinställningar och 9000x8000 i upplösning och med stadiga 50.000 fps.

Sen att du tror att nvidia kommer släppa billigare kort än AMD... tycker synd om dig om du tror det.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av kriggus
Säger du att jag ljuger! Vilken lögn (av dig )! Att kortet är billigare än nvidias senaste releaser betyder ju, som du visat, inte särskilt mycket... 3,5-4 tusen för ett grafikkort tycker jag är svindyrt iaf. Man får ju ett riktigt bra kort för under 2000kr idag.

Mitt råd till TS var att ha is i magen (dvs ha tålamod). Finns ingen direkt anledning till nyköp av ett hd58xx-kort i dagsläget såvida man inte:

1) Är tekniknörd och ser det som en hobby att "mixtra" med datorn.

2) Sitter med ett dåligt eller inget grafikkort alls och tänk lägga ut ca 2500-4000kr på ett nytt.

3) Man är tät.

hd3870x2 är ju ganska ok så 2:an kvalar han inte in i. TS föll på 1:an eller kanske 3:an, men det vet vi ju inget om.

Hur som helst kommer det med all säkerhet löna sig att invänta nvidias motdrag och det förmodade priskriget. hd58xx har potential att blir rejält billigare.

2 och 3 stämmer icke på mig men just nu råkade jag ha pengar över och då vart det ett 5870

1 stämmer dock Försöker motverka det men vafan... ibland måste man unna sig >_<

Citat:

Ursprungligen inskrivet av DraXula
Hur har du försökt forca det?

Testa det här programmet:
http://www.download25.com/install/resolutionchanger.html

Du kör det via command-line ganska simpelt och det var enda sättet jag kunde få mitt 4870 att ge ut 1920x1080@60Hz under Windows 7. I W7 kunde man inte ändra refresh-raten till något annat än 59Hz vilket min tv inte gillade så, testa!

Prövade det, det verkade inte funka men tack för tipset!

Citat:

Ursprungligen inskrivet av roxkz
Kan bero på att skärmens rätta upplösning är 1440x900, INTE 1680x1050...

Det har du ju helt jävla rätt i! Kollade LGs officiella hemsida men vad jag förstår då är varför det verkligen ser ut som det är mkt mindre upplösning än vad det var förut när jag hade 3870x2 kortet i samt att det ser grym pixelerat ut nu.

I am a confused panda!

EDIT: på tal om Intel och Nvidia, kopierade detta direkt från min signatur på Rage3d.

No more Intel and Nvidia, Nvidia products!!

Därav vill jag inte köpa mera Nvidia och Intel produkter!

Jag ska iaf pröva att installera om W7 senare idag och då kanske det löser sig

EDIT2: w00t! Trixade med knapparna under skärmen så nu ser det ut som det ska, dvs inte sönder pixelerat å grejs Däremot funkar inte autoset knappen för då hamnade skärmen ca 7-8cm åt vänster men det var ju snabbt ordnat

Visa signatur

Linux Manjaro XFCE på en MacBook Pro late 2013, gammal slö Asus X202E, Nintedo Switch, gamla Huawei 20Pro

Intel är apartheid

Permalänk
Medlem

gött att det ordnade sig då

Visa signatur

Audio: xDuoo TA-22, Hifiman Deva, HE-R9, Modmic Wireless, Dali Opticon 1, SVS SB 2000
SFF PC: Lian li Q58, Asus B550-I, Ryzen 5800x3D, 2x16GB 3600MHz cl16, 4080 Ventus, CM V750W Gold SFX, Philips 32" 4k 144hz 329M1RV
Coffee: Moccamaster KBGT741 Thermo, AeroPress, Lavazza ¡Tierra! Organic

Permalänk
Inaktiv

älskar i hårdvaruvärlden orden: "Vänta tills dom ....."
Finns 2 saker jag väntar på i hårdvaruvärlden:

1. Ny CPU gen enligt moores law.
2. Att grejerna finns i lager för att beställa.

Inget är garanterat om Nvidias nya grafikkort och dom kommer om 5 månader.
Om 2-3 veckor blir det 5850 köp för att njuta alla kannon releases nu.

Vänta 5 månader för 5 mer FPS och betalla 3000:- extra för det.
Riiiight.

Permalänk
Citat:

Ursprungligen inskrivet av PsychedelicZ
älskar i hårdvaruvärlden orden: "Vänta tills dom ....."
Finns 2 saker jag väntar på i hårdvaruvärlden:

1. Ny CPU gen enligt moores law.
2. Att grejerna finns i lager för att beställa.

Inget är garanterat om Nvidias nya grafikkort och dom kommer om 5 månader.
Om 2-3 veckor blir det 5850 köp för att njuta alla kannon releases nu.

Vänta 5 månader för 5 mer FPS och betalla 3000:- extra för det.
Riiiight.

Du motsäger dig själv.
Först säger du att inget är garanterat om nvidias nya grafikkort, och sen säger du en massa: korten kommer om 5 månader, man får 5 fps mer med korten, och de kostar 3000 kr mer.

Ingen vet hur mycket de kommer kosta, ingen vet när de släpps, och ingen vet hur bra de kommer prestera.
Så sluta snacka skit tack.

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av Blackbird_CaD_
Du motsäger dig själv.
Först säger du att inget är garanterat om nvidias nya grafikkort, och sen säger du en massa: korten kommer om 5 månader, man får 5 fps mer med korten, och de kostar 3000 kr mer.

Ingen vet hur mycket de kommer kosta, ingen vet när de släpps, och ingen vet hur bra de kommer prestera.
Så sluta snacka skit tack.

U mad?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av dansk1
programvaran är säkert optimerad på ett sätt så AMD:s G-kort hamnar på efterkälken.

Var/är inte Farcry optimerat för Nvidia? Känns som ja sett mängder med spel som som säger att spelet funkar bäst med Nvidia. Hopps en snabb titt på baksidan av COD2, Nvidia logga... Varför den upplopps stäming nu?

Visa signatur

|| Intel Core i5 2500K || Corsair Cooling Hydro H60 || Asus Maximus IV Gene-Z || Asus GeForce GTX 570 DirectCU II || Corsair 8GB 1600Mhz VENGEANCE || Corsair HX 650W || Fractal Design Define Mini || 500GB WD Caviar Black || OCZ SSD Agility 3 60GB || Windows 7 Premium 64-bit [thread="1004219"][/thread]

ASUSMaximus IV GENE-Z Owners Club

Permalänk
Citat:

Ursprungligen inskrivet av tannat
Enligt AMD har Nvidia aldrig gett dem ett direkt erbjudande att licensiera PhysX.

Om det skulle vara sant (vilket det f.ö. inte är) så är vi tillbaka till det jag sa om initiativ - om det nu var så att Nvidia inte hade erbjudit PhysX till AMD var det ingenting som stoppade AMD ifrån att ta första steget och be om att få licensiera tekniken.

Dock är det ju så att AMD helt enkelt inte ville ha PhysX på sina kort - mest troligt pga att det då, automatiskt, ville blivit industristandard för fysikberäkningar. Fråga killarna från NGOHQ f.ex. då de har first-hand experience här.

Citat:

Ursprungligen inskrivet av tannat
Folk blir ofta stensäkra på hur det egentligen "gick till" när de vill att det "gick till" på ett särsklit sett även om de inte har en aning.

Ta inte illa upp men jag ser flera exempel i dina två inlägg här som indikerar att du inte vet mer än vi andra utan bara tar för givet en viss sida av myntet är sann och predikar det som fakta.

Ska detta vara ett fint sätt att insinuera att jag ljuger och tar fel? Stop pussyfooting around och säg det rakt ut istället. Länka också gärna till vad jag sagt som är felaktigt samt källor som visar fakta i saken.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av emigrating12
Länka också gärna till vad jag sagt som är felaktigt samt källor som visar fakta i saken.

Annars kan ju du länka till dina källor som stödjer ditt påstående, och inte bara ett kort notis om "nVidia erbjuder PhysX till AMD" på Fudzilla eller nått.. Sen är det mycket möjligt OCH troligt att de erbjudit fast till totalt orimliga licenskostnader för att höja priset till slutkund på AMDs kort.
Ett exempel på liknande var ju de sjuka SLI licens kostnaderna de tog när AMD lät moderkorts tillverkarna sätta in Crossfire gratis.

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk

$5.00 för en SLI licens är inte speciellt "sjukt", tvärtemot ligger det ganska rätt till om man ser på vad f.ex. ljud eller nätverk kostar - eller ta P55 chippet i sig, som Intel vill ha $40.00 för.

Visserligen krävde Nvidia $30,000.00 up-front men även de minsta moderkortsproducenter vill inte ha något problem att hitta dessa pengarna.

Jag tror du missar poängen här, Nvidia är ett företag och ett företags mål (oavsett hur nobelt det må verka) är att tjäna pengar till sina aktieägare/investorer - sålänge marknaden är beredd att betala $5.00 per moderkort för en SLI licens så är det helt enkelt ett schysst marknadsvärde. Den dagen då konsumenterna slutar köpa SLI enabled moderkort är dagen då Nvidia blir tvungen att omstrukturera sina licensavgifter.

Ang. mina källor så har jag inga som helst planer på att källspecifisera allt jag skriver men Rocksteady i London kan verifiera vad jag sa om Batman:AA och diverse public transcripts (såväl som podcasts) ifrån developer mässor kan verifiera att AMD har blivit erbjudna PhysX men nobbade ideen, läser man mellan linjerna på dessa får man en ganska klar bild av varför också.

Visa signatur

[Geek, Dad, Programmer, RC enthusiast, Technology evangelist]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av emigrating12
$5.00 för en SLI licens är inte speciellt "sjukt", tvärtemot ligger det ganska rätt till om man ser på vad f.ex. ljud eller nätverk kostar - eller ta P55 chippet i sig, som Intel vill ha $40.00 för.

Jag tror att du skulle vara förvånad över hur billig ett vanligt ljud eller nätverkschip är.

http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3624&cp=3

Ljud: $2
Nätverk: $3.5

Ser man till AnandTech's siffror så står SLI-licensen för $5/121.50 = lite mer än 4% av den totala kostnaden för ett mid-end moderkort.

Vad kan ett mid-end moderkort kosta? Asus P7P55D? $150 hos Newegg (om vi ska räkna med svenska priser så får vi inte glömma moms)? Det ger en vinst-marginal på drygt $25 totalt... och detta med att vi inte räknar in någon form av import/export-skatt.

Återförsäljare tar oftast ut en högre andel av vinst-marginalen än tillverkaren eftersom deras risker oftast också är mycket större. Newegg är här ett gigantiskt bolag så de handlar kanske med Asus direkt; i vanliga fall har vi åtminstonde ett extra mellanled också.

Om man är lite sjysst så kanske man kanske räkna Asus vinst-marginal på 10%? $12 per kort?

$5 är då helt plötsligt signifikant.

Citat:

Ursprungligen inskrivet av emigrating12
Jag tror du missar poängen här, Nvidia är ett företag och ett företags mål (oavsett hur nobelt det må verka) är att tjäna pengar till sina aktieägare/investorer - sålänge marknaden är beredd att betala $5.00 per moderkort för en SLI licens så är det helt enkelt ett schysst marknadsvärde. Den dagen då konsumenterna slutar köpa SLI enabled moderkort är dagen då Nvidia blir tvungen att omstrukturera sina licensavgifter.

Det värst som skulle hända för oss konsumenter är att AMD också får samma tankar.

Att få $5 per såld moderkort, helt utan risker, är inte dåligt alls. Det skulle minst sagt vara bedrövligt om AMD skulle ta ut sin egen Crossfire-licens...

Ta någon dollar och uppgradera till en Intel Gigabit-kontroller istället!

Visa signatur

"Nothing is impossible because impossible itself says I M Possible..."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av emigrating12
Om det skulle vara sant (vilket det f.ö. inte är) så är vi tillbaka till det jag sa om initiativ - om det nu var så att Nvidia inte hade erbjudit PhysX till AMD var det ingenting som stoppade AMD ifrån att ta första steget och be om att få licensiera tekniken.

Dock är det ju så att AMD helt enkelt inte ville ha PhysX på sina kort - mest troligt pga att det då, automatiskt, ville blivit industristandard för fysikberäkningar. Fråga killarna från NGOHQ f.ex. då de har first-hand experience här.

Ska detta vara ett fint sätt att insinuera att jag ljuger och tar fel? Stop pussyfooting around och säg det rakt ut istället. Länka också gärna till vad jag sagt som är felaktigt samt källor som visar fakta i saken.

Jag är bara en vänlig natur. Jag insinuerar inte. Jag konstaterade att du tolkar de rykten och uttalanden vi alla läst på nätet ensidigt. Jag har sett den här typ av vi och dom beteende så många gånger förr så jag behöver inte anklaga folk för lögn etc. Bara enögdhet.

Att du vet att det inte är sant när uppenbarligen isf ord står mot ord därute är bevis nog. Antingen har du insikt i företagen på en nivå som ingen annan här har eller så blir det sant som du vill vara sant - wishfull thinking.

Visa signatur

Bänktester är i värsta fall som foton utan blixt i ett mörkt rum. Väggarna blir svarta. Med fantastisk repeterbarhet.
Q9450@3,6, Asus P5E deluxe (x48), True Rev. C PP
Hd5870@1052/1331
Silverstone Fortess II, Corsair HX750

Permalänk
Medlem

Är det bara jag som är sugen på att köpa 2 4870 och köra i CF?

Det är ju billigare än 5870 och presterar lika ungefär lika bra i tester (om man inte har sanslöst hög upplösning).

Vad förlorar man på att inte ha DX11 stöd? Har hört att man kan ta del av vissa DX11 funktioner utan DX11 kort (som Multi-Core stödet).

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av hobs0n
Det lutar åt det...

Hoppas på att mitt datanörds sinne har försvunnit och mitt kloka spara minne har vaknat imorrn bitti

Mitt Sapphire HD5870 är tyst och det ligger strax under mitt gamla PowerColor HD4870x2 (har gått sönder) i prestanda. Det lär bli bättre då drivrutinerna kommer att bli bättre optimerade. Att det är tyst beror på att kortet är svalt vid 21% fläkthastighet

Visa signatur

AMD Phenom II 955BE x4 @3.61GHz|SamSung 2 x 500GB 7200 RPM|Asus M4A79T Deluxe|4GB OCZ Black Edition 12800@1600MHz|Sapphire HD5870 1GB RAM|OS varierar, men mest Win XP x64

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av hobs0n
2 och 3 stämmer icke på mig men just nu råkade jag ha pengar över och då vart det ett 5870

1 stämmer dock Försöker motverka det men vafan... ibland måste man unna sig >_<

Hehe lite samma hos mig också. Kommer nog inte kunna hålla mig från hd5850 när det kommer in på lager torts att mitt nuvarande 8800gt klarar det mesta jag slänger på det...

Visa signatur

An expert is one who knows more and more about less and less until he knows everything about nothing.

Permalänk
Citat:

Ursprungligen inskrivet av hobs0n
W00t! Cyklade ner till stan idag i piss regnet och köpte mig ett Sapphire 5870

Enda skumma är att den vägrar ge min andra skärm, LG W1952S, dess rätta upplösning 1680x1050 utan den säger att den är 1440x900 vilket ser skräp ut :/

Ngn som vet hur man trixar till det? Jag har prövat att forcera till 1680x1050 men den vägrar :/

Saxat från LG´s sida.
"Resolution 1440 X 900"

där sket det sig.

Visa signatur

Intel 2500K | GPU? | MSI Z77A-GD45 | 8GB | Win 7 Pro 64

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av GustavRonne
Saxat från LG´s sida.
"Resolution 1440 X 900"

där sket det sig.

Som jag skrev tidigare så mindes jag fel och upptäckte det genom LGs hemsida

Citat:

Ursprungligen inskrivet av kriggus
Hehe lite samma hos mig också. Kommer nog inte kunna hålla mig från hd5850 när det kommer in på lager torts att mitt nuvarande 8800gt klarar det mesta jag slänger på det...

Hehe jag var ju som sagt hyffsat icke nöjd med 3870x2an. Är en dröm att kunnna lira tex Stalker i tokmax detalj å allt flyter perfekt å det ser så jävulskt bra ut

Visa signatur

Linux Manjaro XFCE på en MacBook Pro late 2013, gammal slö Asus X202E, Nintedo Switch, gamla Huawei 20Pro

Intel är apartheid