AMD häcklar Fermi i ny reklamfilm

Permalänk
Skrivet av Majora:

Bullshit. Har aldrig sett eller ens läst om ett ATi kort som man inte kunnat ha tredjepartskylare till pga att de inte följde "referens". Hålen för kylarna är alltid på samma plats. Det enda skulle vara positionen av VRMs, men det är endast 1950PRO jag kan komma på, och det var för fläkttillverkarna GLÖMDE TA MED kylare till dom. Inte att de inte följde standard.

Ontopic:
Lite smårolig reklam, men inte mer än så. Inte mycket värre än all annan reklam de båda gör mot varandra, exempelvis när de presenterar interna benchmark resultat.

Från Overclock3d´s review av Asus 5870...
"If you plan to ever water-cool your graphics card then most of the high-end variants aren't any good because they use non-reference circuit-boards that mean you can't use an "off-the-shelf" water-block."

Det är alltid kul när stora företag driver med varandra. Handlar ju iofs om bilar..

Visa signatur

ASUS ZENiTH EXTREME ALPHA | TR 2970WX | 64GB RAM | RTX 2080ti

Permalänk
Medlem
Skrivet av preciousillusion:

Från Overclock3d´s review av Asus 5870...
"If you plan to ever water-cool your graphics card then most of the high-end variants aren't any good because they use non-reference circuit-boards that mean you can't use an "off-the-shelf" water-block."

Men de flesta som säljer kort med andra kyllösningar har ju ändå samma PCB.

Visa signatur

Chassi: Corsair 650D | Processor: Intel Core i5 3570K | Moderkort: Gigabyte GA-Z68XP-UD3P | Minne: Corsair 16 GB | SSD: Corsair Force GT 128 GB | Lagring: 3,5 TB | Grafikkort: HIS HD7870 | Nätaggregat: Corsair AX750W | Tangentbord: Microsoft Sidewinder X4 | Mus: Mionix Naos 5000

Permalänk
Skrivet av Klimpen2:

Men de flesta som säljer kort med andra kyllösningar har ju ändå samma PCB.

Enligt recensionen har dom ju inte samma PCB..

Skrivet av pierretox:

fan vilken onödig tråd som uppkommit av en ännu onödigare artikel från Swec "Se & Hör" redaktion...

Håller med, även om jag själv är delaktig.. Det är ju lite som att snacka av sig massa skit på kafferasten..

Visa signatur

ASUS ZENiTH EXTREME ALPHA | TR 2970WX | 64GB RAM | RTX 2080ti

Permalänk
Medlem

Google > bmw vs audi advertising > bilder.
Skratta eller lipa beror på vilken sida du håller på, men vad ati gör/gjorde är inte så nytt precis

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Medlem

Fan vad barnsligt gjort av AMD...

Visa signatur

Louqe Ghost S1 + L TopHat | ASRock Phantom Gaming ITX | Intel Core i9-9900K | Corsair Vengeance LPX 32GB | Gigabyte GeForce RTX 2080 Ti 11GB | Corsair SF750 Platinum | Samsung 970 EVO Plus 500GB | Intel 660P 2TB | Custom Vattenkylning CPU/GPU | Windows 11 Pro x64

Permalänk
Medlem
Skrivet av Kvickstick:

Fan vad barnsligt gjort av AMD...

Äre barnsligt av apple också? Nej, det är roligt för oss konsumenter!

Fast det är lite synd att nvidia han släppa gtx 460 innan denna reklamfilm kom! xD

Permalänk
Skrivet av Klimpen2:

GTX480 är 1 kort, 5970 är 1 kort.
4 GTX480 är 4 kort, 5970 är 1 kort.

2 st 5970 är 4 gpuer, fler antal gpuer under dagens system är omöjligt.

2 st 5970 presterar sämre än 4 st 480 gtx.

Det är enbart under förutsättningen att man räknar average fps. När det handlar om stabilitet, anti aliasing och tesselation har Fermi ett oerhört stort försprång. Vilket troligtvis också är källan till dess högre strömförbrukning?

Jag skulle i alla fall inte vilja spela Metro 2033 på ett ATI kort med allting maxat. På ett Fermi kort däremot är det en ren fröjd.

Visa signatur

Arch Linux

Permalänk
Skrivet av Hardware guy:

Lycka till att trycka ner 4 grafikkort i en PCIe-slot. Det en ambitiös mod som jag gärna vill se resultatet av.

Som jag skrev i tidigare inlägg kan man inte använda mer än 2 st 5970 under ett system heller, så ska man driva det vidare utan att sätta någon gräns så kan man lika väl fortsätta med att maxgränsen ligger för den maximala prestanda ett system kan pressa ut och det är i så fall med 4 st gtx 480.

Tills en punkt där det är möjligt att köra 6 eller 8 gpuer under ett och samma system, under förutsättningen att det maximalt går att sätta in 4 stycken kort i ett och samma system, så kommer 480 gtx ha prestandatronen. Förutsatt att inga nya kort släpps så klart eller diverse drivrutinsförbättringar sker.

Man kan inte vrida och vända på det till en av tillverkarnas fördel hela tiden, någonstans måste man sätta en gräns.

Den lämpligaste gränsen ur min synvinkel är att helt enkelt jämföra gpu mot gpu för den mest rättvisa jämförelsen, vi kan inte landa någonstans mellan. Just doesn't make any sense.

Visa signatur

Arch Linux

Permalänk
Skrivet av Johnny Calibanio:

2 st 5970 är 4 gpuer, fler antal gpuer under dagens system är omöjligt.

2 st 5970 presterar sämre än 4 st 480 gtx.

Det är enbart under förutsättningen att man räknar average fps. När det handlar om stabilitet, anti aliasing och tesselation har Fermi ett oerhört stort försprång. Vilket troligtvis också är källan till dess högre strömförbrukning?

Jag skulle i alla fall inte vilja spela Metro 2033 på ett ATI kort med allting maxat. På ett Fermi kort däremot är det en ren fröjd.

Visa signatur

ASUS ZENiTH EXTREME ALPHA | TR 2970WX | 64GB RAM | RTX 2080ti

Permalänk
Skrivet av preciousillusion:

Är det inte precis det här min poäng är? Båda radeon korten som ligger i topp har två gpus, men det finns inget test där två 480 gtx testas.

Dessutom finns inte lowest fps med i det där testet, vilket är det mest intressanta. Ett radeon kort kan häller inte generera physx, vilket är en stor del av upplevelsen i metro 2033.

Du får gärna länka till sidan som utförde testet också, finns till exempel ingen information angiven om tesselation är på, vilket jag gissar att det inte är eftersom att samtliga grafikkort verkar ha ovanligt bra resultat för metro 2033.

Visa signatur

Arch Linux

Permalänk
Medlem
Skrivet av Johnny Calibanio:

2 st 5970 är 4 gpuer, fler antal gpuer under dagens system är omöjligt.

Ja

Citat:

2 st 5970 presterar sämre än 4 st 480 gtx.

Ja

Citat:

Det är enbart under förutsättningen att man räknar average fps. När det handlar om stabilitet, anti aliasing och tesselation har Fermi ett oerhört stort försprång. Vilket troligtvis också är källan till dess högre strömförbrukning?

Njää, källan till strömförbrukningen är pga. dålig effektivitet(arkitektur) och dåliga yields.

Visa signatur

Chassi: Corsair 650D | Processor: Intel Core i5 3570K | Moderkort: Gigabyte GA-Z68XP-UD3P | Minne: Corsair 16 GB | SSD: Corsair Force GT 128 GB | Lagring: 3,5 TB | Grafikkort: HIS HD7870 | Nätaggregat: Corsair AX750W | Tangentbord: Microsoft Sidewinder X4 | Mus: Mionix Naos 5000

Permalänk
Medlem
Skrivet av ParasiteX:

Du kan kolla här och bara välja grafikkort och respektive SLI eller Crossfire
eXtreme Outer Vision - eXtreme tools for computer enthusiasts

dubbla GTX 480 kräver som sagt cp mycket ström..... Bara en GTX 480 drar något mer ström än en 5970 som sagt...

Jag hittar inte vart det står vad det drar? Hjälp mig plssss

Visa signatur

GPU: Vega 56 - RAM: 32GB - CPU: Ryzen 7 3700X - MasterLiquid ML240L
SSD: Kingston A2000 1000GB MB: ASUS ROG STRIX B450-F GAMING

Citera för svar!

Permalänk
Skrivet av Klimpen2:

Ja

Ja

Njää, källan till strömförbrukningen är pga. dålig effektivitet(arkitektur) och dåliga yields.

Om du kan försvara det påståendet genom att länka till en källa där detta bevisas så kommer jag acceptera det till fullo (:

Visa signatur

Arch Linux

Permalänk
Skrivet av Johnny Calibanio:

Är det inte precis det här min poäng är? Båda radeon korten som ligger i topp har två gpus, men det finns inget test där två 480 gtx testas.

Dessutom finns inte lowest fps med i det där testet, vilket är det mest intressanta. Ett radeon kort kan häller inte generera physx, vilket är en stor del av upplevelsen i metro 2033.

Du får gärna länka till sidan som utförde testet också, finns till exempel ingen information angiven om tesselation är på, vilket jag gissar att det inte är eftersom att samtliga grafikkort verkar ha ovanligt bra resultat för metro 2033.

Jag bara googlade på 480 å tog nåt test.. å det var den här

Min poäng är att uttalanden som "Jag skulle i alla fall inte vilja spela Metro 2033 på ett ATI kort med allting maxat. På ett Fermi kort däremot är det en ren fröjd." känns lite poänglösa...

EDIT: Jag tror inte jag vill spela Metro 2033 på bara en gpu...

Visa signatur

ASUS ZENiTH EXTREME ALPHA | TR 2970WX | 64GB RAM | RTX 2080ti

Permalänk
Avstängd

Lite rolig reklam av ATi, men sen verkar som inte tänkt på att nVIDIA har släppt sitt GTX460 som i dom flesta fallen ligger liga eller T.ex plockar HD5850, det går svalt, kostar mindre och ja vad ska man säga, där hade ATi inget att komma med längre...

Tycker bara det är väldigt dålig stil att göra sådan här "Reklam" eller ja dom smutskastar ju bara säg själva, sen säger dom att nVIDIA kör med fulspel!? det gör nog fan nVIDIA helt rätt i om man ser till denna reklamen!

nej ATi skärp er annars blir det fan nVIDIA all the way

Permalänk
Permalänk
Medlem

Jag tyckte inte den där reklamen var dunderrolig, det kändes som att production value var sjukt lågt. Den skulle ha gjorts tidigare, då hypen kring fermi fortfarande var fånigt hög.

Skrivet av Johnny Calibanio:

2 st 5970 är 4 gpuer, fler antal gpuer under dagens system är omöjligt.

2 st 5970 presterar sämre än 4 st 480 gtx.

4 st GTX480 kostar (billigast på inet) 17632 kr. 2 st 5970 kostar 11574 kr.

Ett moderkort med 4x16 PCI-E 2.0 finns för det första bara till intels 1366 och kostar 2500 kr om du kan tänka dig att skaffa ett sunkigt ASrock, annars kostar det dryga 5000 kr. Ett moderkort med 2 st x16 PCI-E 2.0 kostar till socket 1366 ca 1800 kr (obs, inte billigaste).

Ett GTX480 har en peak-TDP på 320 watt. 4*320=1280 watt. Ett 5970 har en peak-TDP på 304 watt. 2*304=608. Som du kan se behöver man alltså också ett nätagg för minst 3000 kr för att kunna driva 4 st GTX480, men man behöver bara spendera 2000 kr för att kunna driva 2 5970.

Sammanlagt så kostar det alltså 10250 kr mer att köra 4 st GTX480 än 2 st HD5970. Vad jag vet så är prestandaskillnaden inte värd 10250 kr, och så lär du få en del temperaturproblem om du behåller standardkylningen.

Källa på TDP: geforce gtx 480 tdp in details 320 w peak load

Dessutom så är HD5970 ett grafikkort. Om man skulle resonera som dig, att antalet kärnor på en PCB bestämmer hur många grafikkort det är så skulle man kunna säga att GTX480 är 480 grafikkort eftersom det har 480 CUDA-kärnor. Så länge man bara behöver en PCI-slot för att koppla in kortet är det i mina ögon ett grafikkort.

Ett HD5970 är bättre, svalare och mer strömsnålt än ett GTX480. Visst finns möjligheten i teorin att lira 4xGTX480 men i praktiken är det oerhört korkat och problematiskt. Sen att det också är sjukt oprisvärt att köra 2 HD5970 är en annan historia.

Nej, jag är ingen ATI-fanboy, jag tycker att GTX460 är ett skitgrymt kort som ger asmycket pris/prestanda. Det är dock fakta och ingen åsikt att GTX480 är ett bajskort.

Visa signatur

CPU: AMD Ryzen 5 3600 XT | RAM: 16GB 3200MHz | MB: Asus Prime B350-Plus | GPU: Sapphire Radeon RX 5600 XT Pulse | PSU: EVGA 650 GQ | Chassi: Fractal Design Define C | SSD: Intel 600p 512 GB

Permalänk
Medlem
Skrivet av Klimpen2:

Ja

Ja

Njää, källan till strömförbrukningen är pga. dålig effektivitet(arkitektur) och dåliga yields.

Skrivet av Johnny Calibanio:

Om du kan försvara det påståendet genom att länka till en källa där detta bevisas så kommer jag acceptera det till fullo (:

Det är nog bara att acceptera det faktum att GF 100 läcker som ett såll.
Här ett test av Fermi med alla 512 CC aktiverade. Drar över 200 W mera än 480 CC versionen.

EXPreview - 512SP GeForce GTX 480

Vilket bara bevisar påståendet ovan.

Edit: Cwittler hann före

Permalänk

Bevisar enbart att 512 SP är ineffektiv i förhållande till 480 gtx, dessutom är det ett kort som inte ens har släppts än. Möjligtvis kommer det inte ens att släppas.

Sen är ett bevis också någonting som man klart och tydligt kan visa att det gäller i alla fall. Jag vill se en artikel som klart och tydligt visar att Nvidia har gjort dumma avvikelser i arkitekturens uppbyggnad, så som att exempelvis visa att det hade varit effektivare att placera cudakärnor eller dylikt på ett annorlunda sätt. i detta bevis även inkludera matematiska uträkningar som påvsiar den ökade strömförbrukningen.

Att hänvisa till ett annat kort, med andra specifikationer och sen påstå att det kortet bevisar att hela arkitekturen är ineffektiv, är inte okej.

Inom vetenskap kan inget tas för givet förens det har bevisats.

Visa signatur

Arch Linux

Permalänk
Skrivet av JonteP0nte:

Jag tyckte inte den där reklamen var dunderrolig, det kändes som att production value var sjukt lågt. Den skulle ha gjorts tidigare, då hypen kring fermi fortfarande var fånigt hög.

4 st GTX480 kostar (billigast på inet) 17632 kr. 2 st 5970 kostar 11574 kr.

Ett moderkort med 4x16 PCI-E 2.0 finns för det första bara till intels 1366 och kostar 2500 kr om du kan tänka dig att skaffa ett sunkigt ASrock, annars kostar det dryga 5000 kr. Ett moderkort med 2 st x16 PCI-E 2.0 kostar till socket 1366 ca 1800 kr (obs, inte billigaste).

Ett GTX480 har en peak-TDP på 320 watt. 4*320=1280 watt. Ett 5970 har en peak-TDP på 304 watt. 2*304=608. Som du kan se behöver man alltså också ett nätagg för minst 3000 kr för att kunna driva 4 st GTX480, men man behöver bara spendera 2000 kr för att kunna driva 2 5970.

Sammanlagt så kostar det alltså 10250 kr mer att köra 4 st GTX480 än 2 st HD5970. Vad jag vet så är prestandaskillnaden inte värd 10250 kr, och så lär du få en del temperaturproblem om du behåller standardkylningen.

Källa på TDP: geforce gtx 480 tdp in details 320 w peak load

Dessutom så är HD5970 ett grafikkort. Om man skulle resonera som dig, att antalet kärnor på en PCB bestämmer hur många grafikkort det är så skulle man kunna säga att GTX480 är 480 grafikkort eftersom det har 480 CUDA-kärnor. Så länge man bara behöver en PCI-slot för att koppla in kortet är det i mina ögon ett grafikkort.

Ett HD5970 är bättre, svalare och mer strömsnålt än ett GTX480. Visst finns möjligheten i teorin att lira 4xGTX480 men i praktiken är det oerhört korkat och problematiskt. Sen att det också är sjukt oprisvärt att köra 2 HD5970 är en annan historia.

Nej, jag är ingen ATI-fanboy, jag tycker att GTX460 är ett skitgrymt kort som ger asmycket pris/prestanda. Det är dock fakta och ingen åsikt att GTX480 är ett bajskort.

Jag förstår dig till hundra procent och håller helt med dig i många av dina åsikter. Men när det kommer till den evigt upprepande frågan gällande vilket grafikkort som har prestandatronen bortser man från pris, strömförbrukning och dylikt, eftersom att det är prestandan som är ifråga.

Jag äger inget gtx 480 själv, kommer aldrig någonsin att köpa ett gtx 480. Däremot tycker jag fortfarande att man måste placera det högst upp, av den enkla anledningen att grafikkortet är det snabbaste singel gpu kortet på marknaden.

Visa signatur

Arch Linux

Permalänk
Medlem
Skrivet av Johnny Calibanio:

Däremot tycker jag fortfarande att man måste placera det högst upp, av den enkla anledningen att grafikkortet är det snabbaste singel gpu kortet på marknaden.

Men 5970 är det snabbaste grafikkortet.

Visa signatur

CPU: AMD Ryzen 5 3600 XT | RAM: 16GB 3200MHz | MB: Asus Prime B350-Plus | GPU: Sapphire Radeon RX 5600 XT Pulse | PSU: EVGA 650 GQ | Chassi: Fractal Design Define C | SSD: Intel 600p 512 GB

Permalänk
Avstängd
Skrivet av JonteP0nte:

Men 5970 är det snabbaste grafikkortet.

Nu var det ju inte snabbaste grafikkortet han sa utan snabbaste SINGEL GPU kortet, vilket han har 100% rätt i, eller får du ett 5970 till singel GPU?

Permalänk
Skrivet av JonteP0nte:

Men 5970 är det snabbaste grafikkortet.

Ja, men det har ingen större betydelse i verkligheten då grafikkortet fungerar som två kort. Du kan inte köra tre eller fyra 5970 under samma system, det kan du däremot med 480 gtx. Därför borde 5970 jämföras mot 480 gtx som ett derivat av 5870 med lägre klockfrekvens.

Visa signatur

Arch Linux

Permalänk
Medlem
Skrivet av Johnny Calibanio:

Bevisar enbart att 512 SP är ineffektiv i förhållande till 480 gtx, dessutom är det ett kort som inte ens har släppts än. Möjligtvis kommer det inte ens att släppas.

Sen är ett bevis också någonting som man klart och tydligt kan visa att det gäller i alla fall. Jag vill se en artikel som klart och tydligt visar att Nvidia har gjort dumma avvikelser i arkitekturens uppbyggnad, så som att exempelvis visa att det hade varit effektivare att placera cudakärnor eller dylikt på ett annorlunda sätt. i detta bevis även inkludera matematiska uträkningar som påvsiar den ökade strömförbrukningen.

Att hänvisa till ett annat kort, med andra specifikationer och sen påstå att det kortet bevisar att hela arkitekturen är ineffektiv, är inte okej.

Inom vetenskap kan inget tas för givet förens det har bevisats.

Nu är ju inte jag en ingenjör och grafikprocessorer är ganska avancerade. Jag vet inte vad de har gort fel med GF100.

Men ett bevis för att GTX480 är ineffektiv: http://www.sweclockers.com/recension/6236-nvidia-geforce-gtx-...

Kolla vilket test som helst så ser du att GF100 är ineffektiv i jämförelse med Cypress. Något annat är helt enkelt bara BS.

Visa signatur

Chassi: Corsair 650D | Processor: Intel Core i5 3570K | Moderkort: Gigabyte GA-Z68XP-UD3P | Minne: Corsair 16 GB | SSD: Corsair Force GT 128 GB | Lagring: 3,5 TB | Grafikkort: HIS HD7870 | Nätaggregat: Corsair AX750W | Tangentbord: Microsoft Sidewinder X4 | Mus: Mionix Naos 5000

Permalänk
Medlem

Herregud vilket tjat angående att 5970 inte är bäst för att det har två GPU:er. Räknas inte fyrhjulsdrivna bilar i rally för att de driver på fler däck och "fuskar" därför? Räknade ni också så när dubbelkärniga processorer kom? Visst, kan gå med på att man frånser ett sådant kort om det även kostar som dubbla grafikkort men nu är ju prisskillnaden mellan GTX480 och HD5970 knappt större än prisskillnaden mellan HD5870 och GTX480, alltså är det dyrt men inte orealistiskt dyrt, inte mer orealistiskt dyrt än vad GTX480 är jämfört med 5870.

Vem bestämmer att man inte får ha fler än en GPU? Varför "gills inte" ett sånt kort? För att det är för bra? För att man inte kan köra fyra sådana kort vilket ändå ingen gör? För att det drar mer ström än enkelkärniga kort (vilket inte stämmer då det drar mindre ström än GTX480)? 5970 är det snabbaste grafikkortet.

Angående att GTX480 drar mer ström pga tesselations-prestanda så stämmer ju inte det. Kortet drar mer ström än om man inte använder tesselation. Vad man än gör - t.om om man gör ingenting - så drar det mer ström.

Permalänk
Medlem
Skrivet av Johnny Calibanio:

Ja, men det har ingen större betydelse i verkligheten då grafikkortet fungerar som två kort. Du kan inte köra tre eller fyra 5970 under samma system, det kan du däremot med 480 gtx. Därför borde 5970 jämföras mot 480 gtx som ett derivat av 5870 med lägre klockfrekvens.

GTX460 kan man bara köra 2 av, är det alltså ett dubbelkort?

Skrivet av InluZion:

Nu var det ju inte snabbaste grafikkortet han sa utan snabbaste SINGEL GPU kortet, vilket han har 100% rätt i, eller får du ett 5970 till singel GPU?

Vi har ju dock diskuterat vilket som är det snabbaste grafikkortet. Att ha det snabbaste "Singel-GPU"-kortet är ju totalt meningslöst, när det ändå drar mer ström och är mer högljutt än det andra grafikkortet? AMD har valt ett annat tillvägagångssätt för att bilda sitt snabbaste grafikkort, något som i detta fall visade sig vara en mer lyckad och bättre lösning än nvidias dito på i princip alla sätt och vis.

Visa signatur

CPU: AMD Ryzen 5 3600 XT | RAM: 16GB 3200MHz | MB: Asus Prime B350-Plus | GPU: Sapphire Radeon RX 5600 XT Pulse | PSU: EVGA 650 GQ | Chassi: Fractal Design Define C | SSD: Intel 600p 512 GB

Permalänk
Medlem

Kul idé men dåligt utfört och framförallt på tok för sent..

Visa signatur

Kom-pa-TI-bilitet

Permalänk

Meningslöst att föra denna diskussion vidare så ger mig här.

Visa signatur

Arch Linux

Permalänk
Medlem
Skrivet av JonteP0nte:

GTX460 kan man bara köra 2 av, är det alltså ett dubbelkort?

Din logik är bländande avancerad.................

Visa signatur

Hur kan syltkakor överleva i det vilda utan ögon?

Permalänk

Låt oss hoppas att Ati satsat mer pengar på att få fart på 6000-serien än på denna b-reklam...