Nvidia anklagar AMD för fusk med Catalyst AI

Permalänk
Medlem

nVidia fuskar, AMD fuskar, varje jävla företag på den här planeten FUSKAR, vissa gör det bra andra gör det sämre men det finns ingen anledning för att varje "AMD vs nVidia" tråd ska spåra ur med en massa pajkastning och orelaterat skit.

Permalänk
Medlem
Skrivet av r:Grid:

Ska dedär vara ett skämt ellr för ja skrattar inte, ( eller kanske lite)

Jag säger att det är totalt dyngsnack att dom skulle vilja skydda sina kort i krävande benchmarks mm pga att dom inte skulle hålla för värmen, efterssom dom själva har sagt att Fermi arkitekturen Är skapad för att tåla dessa tempreraturer upp mot 100 grader. Vad du snackar om me 580 hälften så strömsnål som 480 har jag ingen aning om och har inte sagt ett ord om har kommer heller inte att göra.

Vad vill du egentligen?

oh shit.

my mistake. läste lite slarvigt och fick för mig n åt konstigt...
Sorry.

Visa signatur

Luftkyld AMD Phenom II X2 550BE @ 3.7ghz (Alla kärnor upplåsta!),2x2gb Corsair XMS2 ram, GTX460 1gb SLI!, iPhone 3GS 16gb Jailbroken med BlackRa1n!

Permalänk
Skrivet av Orici:

Wall of citat!

Du tycker inte att Nvidia har lurat sina kunder de senaste 6 åren då de kör på lägsta kvaliten som standard?
Ah juste vad var det nu AMD ändrat till? jo lägsta kvaliten som standard.

Tycker verkligen nvidia och andra är löjliga som tycker detta är "fusk".

Visa signatur

CPU: Intel i7 12700K Mem: 32GB DDR5 GPU: Nvidia RTX 4090
Storage: SN850 2x2TB + 3x2TB 860 EVO MB: ASUS Z690 Hero
Chassi: Phanteks P600S PSU: Corsair RM750x OS: Windows 11

Permalänk

Att folk inte har bättre saker att diskutera?

AMD sänker sina standard inställningar ett snäpp...oj oj...so what? ingen skada skedd, de flesta som har ögon och kan se skillnad mellan de olika "nivåerna" vet oftast hur man ställer in eller avaktiverar Catalyst AI. Den vanliga svennen har knappt ingen användning av AI funktionen.

Sen att Nvidia får för sig att hårdvaru begränsa sitt 580 är ju deras misstag, efter hur folk reagerat så lär det inte hända igen (så länge de inte kan kommer med ett bättre användningsområde för den funktionen)

Alla dessa AMD/Nvidia fanboys beter sig som arne och lisa 5 år (slagsmål i sandlådan om vem som ska ha hinken alt spaden)

Är det bara jag som skulle vilja se någon innovativ (b)miljonär alt företag som kan tänka sig köpa upp 3dfx från Nvidia och dra igång det föredraget igen? skulle vara extremt intressant om det kunde dyka upp igen. saknar tiden då varken Nvidia/AMD hade opengl/3D/D3D osv, då fanns det ta_mig_flundran bara 3dfx fanboys ^^

Visa signatur

- Citera för svar -

Permalänk
Medlem

Kan folk hålla sig till fakta istället för detta vanliga fanboy vs fanboy? Detta är inte mer fusk än vad nVidia gjorde med 580, sänker temperaturen och strömförbrukning i Furmark för att "skydda" kortet från att "brinna upp", samtidigt som de hävdar att de har mycket bättre kylning än vanligt.

Båda företagen gör vad de kan för att tjäna pengar, fusk och knep förekommer överallt, inte bara bland grafikkort. Man kan ju även stänga av Catalyst AI funktionen (eller ?) så vad gnäller ni om? Det här med att AMD får mer köpare genom att grafikkorten "fuskar" sig igenom benchmarks är ju ren dynga, då nVidia har gjort samma sak med 580, eller? Som sagt, försäljningsknep, vilket både AMD och nVidia använder sig av.

Visa signatur

ASUS ROG STRIX Z270H GAMING, i7 7700K, MSI GTX 1080 Ti 11 GB Gaming, Corsair HX 850W, Corsair 16GB, Samsung 850 500 GB, Samsung 830 256GB, WD Black 1TB, BenQ XL2420T

Permalänk
Medlem
Skrivet av davaa:

Kan folk hålla sig till fakta istället för detta vanliga fanboy vs fanboy? Detta är inte mer fusk än vad nVidia gjorde med 580, sänker temperaturen och strömförbrukning i Furmark för att "skydda" kortet från att "brinna upp", samtidigt som de hävdar att de har mycket bättre kylning än vanligt.

Båda företagen gör vad de kan för att tjäna pengar, fusk och knep förekommer överallt, inte bara bland grafikkort. Man kan ju även stänga av Catalyst AI funktionen (eller ?) så vad gnäller ni om? Det här med att AMD får mer köpare genom att grafikkorten "fuskar" sig igenom benchmarks är ju ren dynga, då nVidia har gjort samma sak med 580, eller? Som sagt, försäljningsknep, vilket både AMD och nVidia använder sig av.

Instämmer - att man bara inte kan erkänna och acceptera att INGEN av parterna är perfekta...

Permalänk
Medlem

Nvidia har väl omfattande erfarenhet själva i området

Visa signatur

“Problems that remain persistently insoluble should always be suspected as questions asked in the wrong way.” ― Alan W. Watts

Permalänk
Hjälpsam
Skrivet av Orici:

---Text---
VÄRT ATT NOTERA är att nVIDIA bekräftar och uppmärksammar vad en tredje part har sagt.

Nja.. tredje part utryckte sig inte alls lika magsurt som Nvidia.

Du kanske skall läsa artikeln på Computer Base som Nvidiasnubben hänvisar till.
Verkar som om HD6870 spöar GTX470 för det mesta med Catalyst AI avstängt.
GTX460 1GB då? det kommer långt långt efter.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Kristers bensin:

Du tycker inte att Nvidia har lurat sina kunder de senaste 6 åren då de kör på lägsta kvaliten som standard?
Ah juste vad var det nu AMD ändrat till? jo lägsta kvaliten som standard.

Tycker verkligen nvidia och andra är löjliga som tycker detta är "fusk".

Och ändå så är nVIDIA's lägsta kvalite bättre och lite mer krävande verkar det som, än AMD's.

Skrivet av davaa:

Kan folk hålla sig till fakta istället för detta vanliga fanboy vs fanboy? Detta är inte mer fusk än vad nVidia gjorde med 580, sänker temperaturen och strömförbrukning i Furmark för att "skydda" kortet från att "brinna upp", samtidigt som de hävdar att de har mycket bättre kylning än vanligt.

Det är inte samma sak.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Skrivet av Orici:

Och ändå så är nVIDIA's lägsta kvalite bättre och lite mer krävande verkar det som, än AMD's.

Det är inte samma sak.

Nä, inte riktigt samma sak, då det ena har med temperaturer och strömförsörjning att göra, men det andra har med FPS etc att göra. Vad jag försöker få fram är att båda två fuskar, på olika sätt, så sluta gnäll, ingen är bättre än den andra i den kategorin, man kan som sagt stänga av funktionerna utan större problem.

Visa signatur

ASUS ROG STRIX Z270H GAMING, i7 7700K, MSI GTX 1080 Ti 11 GB Gaming, Corsair HX 850W, Corsair 16GB, Samsung 850 500 GB, Samsung 830 256GB, WD Black 1TB, BenQ XL2420T

Permalänk
Medlem
Skrivet av dealerovski:

Det här är inget nytt, har hört från flera håll att man tyckt AMD/ATI korten haft sämre bildkvalite än nvidia, Nu vet man varför. Nu kan alla AMD fanboys hoppa på tåget hem, gonatt, Ha Ha

Jasså, när har du hört det? Den här förändringen ska ju ha införts väldigt nyligen. Annars är det du pratar om bullshit.

Visa signatur

Antec Twelwe Hundred | Asus M4A78-E | Phenom 2 x4 940 Black Edition, Corsair H50 Hydro | Sapphire 5870 1GB Vapor-X | Fractal Design 650W | Kingston 4GB 800MHz DDR2 | Samsung SyncMaster P2450H | Apple iPhone 3GS 16GB | Sony PlayStation 3 Slim 250GB

Permalänk
Medlem
Skrivet av Orici:

Och ändå så är nVIDIA's lägsta kvalite bättre och lite mer krävande verkar det som, än AMD's.

Det är inte samma sak.

AMD fuskar inte, är rätt uppenbart att de inte gör. är inte NVIDIA som bestämmer vilka inställningar som e standard. isåfall ska en bil tillverkare bestämma exakt hur andras bilar ska vara inställda med för att gemföra..

Om man vill ha exakt samma bildkvalité får man ställa in det själv. är ju inte direkt AMD´s fel att de som utför testet är helt okunniga.. o ja hade sagt exakt samma sak om de vart omvända om AMD försökte styra Nvidia´s default inställningar

Visa signatur

-PC- HAF932 - i7 920d0 oc 3.8ghz - P6TDELUXE v2 - Asus 7950 3GB TOP - Samsung 830 128gb - 2xWD 1TB Black - Asus Xonar Essence STX - Logitech G400 - Sennheiser pc360G4me - Logitech Z5500 - S27a950d 120hz - 2233RZ 120hz
GAME | Dota2 | Age of Conan
Youtube: http://www.youtube.com/user/b4nto

Permalänk
Medlem
Skrivet av Orici:

Och ändå så är nVIDIA's lägsta kvalite bättre och lite mer krävande verkar det som, än AMD's.

Exakt, AMD ger ett extra steg i låg kvalité för att kunna ge utrymme till ännu bättre prestanda. Inget fel med det vad jag kan se.

Men nu är ju allt det här lite svårtolkat. Som jag förstår det har AMD låg kvalité som standard, men pga att Catalyst AI inte aktiveras i testprogrammen (antingen pga fusk eller av annan anledning, det kanske inte gör någon större skillnad i små fönster och är därför meningslöst så det avaktiverat det?) så verkar kvalitén helt perfekt, trots att prestandan blir bättre.

Enda gången det är ett problem är alltså om man testar kortet med AI på, jämför med IQ-benchmarks och ser att kvalitén är helt oförändrad med AI på, och kör sedan spelbenchmarks. Det enda det kan leda till är att man konstaterar att Catalyst AI är en väldigt bra funktion som ger 10% bättre prestan utan att minsta skillnad i bildkvalité märks, ens om man jämför pixel för pixel. Tycker att i det fallet borde man ha insett att något inte alls stämmer med IQ-benchmarken och testa vidare istället.

Säger varken bu eller bä, frågan är ju varför det inte funkar i windowed mode. Är det medvetet fusk är det dåligt oavsett hur det påverkar, men faktum är att det ger inte bättre prestanda så länge man stänger av optimeringar som ALLA seriösa hårdvarusajter bör göra när de recenserar grafikkort.

Permalänk
Medlem
Skrivet av fisher61:

Nej,kalla sanning, det är absolut det sämre, amd+ati= skräp-intel+nvidia=kvalitet.

Ojoj, du vet tydligen inte vad kvalite betyder? Har inget med prestandan att göra.

Visa signatur

Antec Twelwe Hundred | Asus M4A78-E | Phenom 2 x4 940 Black Edition, Corsair H50 Hydro | Sapphire 5870 1GB Vapor-X | Fractal Design 650W | Kingston 4GB 800MHz DDR2 | Samsung SyncMaster P2450H | Apple iPhone 3GS 16GB | Sony PlayStation 3 Slim 250GB

Permalänk
Medlem
Skrivet av warh0g:

Nvidia har väl omfattande erfarenhet själva i området

Bästa sättet att hitta fuskare är att använda fuskare för att leta!

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem
Skrivet av Mobne:

Nu kan man tolka allt på fler sätt, även ja tyckte detta va en rutten funktion. Men själva grundtanken va väl att dom ville skydda sina kort mot att oansvariga och okunniga användare bränner dom i furmark t.ex.

Även detta tycker jag att kunden ska kunna avaktivera/aktivera om man själv önskar.

Haha, så nVidias kort är inte gjorda för att användas till 100%?

EDIT: Eftersom vi konsumenter bara har 2 grafik-tillverkare att välja mellan så är såna här "små-knep" något vi får acceptera. Ingen idé att blossa upp över småsaker (vare sig det gäller AF-inställningar eller andra strypningar).

Visa signatur

+++ Divide By Cucumber Error. Please Reinstall Universe And Reboot +++

"Real stupidity beats artificial intelligence every time." - Terry Pratchett, Hogfather

Permalänk
Skrivet av Orici:

Och ändå så är nVIDIA's lägsta kvalite bättre och lite mer krävande verkar det som, än AMD's.

wow... fakta på det? Och som sagt tidigare, andra biltillverkare ska inte bestämma vad som är standard i deras bildator's mjukvara. Allt detta är bara en pajkasting från Nvidia, jag tycker att du orici ska dra dig ur och låta nvidia sköta det. Om AMD nu släpper riktiga höjdarkort och börjar pajkasta nvidia för att deras kort brinner är det lika dåligt, om de inte redan gjort det.

Skrivet av Krulleboll:

AMD (ATI) är ju kända för att fuska med drivrutinerna för att få bättre resultat i benchmarks. Här, runt 2001, var Quake3 standardspel för benchmarking. Givetvis fuskade ATI ganska ordentligt redan på denna tiden.

How ATI's drivers 'optimize' Quake III - The Tech Report - Page 1

"Kyle Bennett at the HardOCP found that replacing every instance of "quake" with "quack" in the Quake III executable changed the [ATI] Radeon 8500's performance in the game substantially. "

Wow har inte vetat om detta, kan bero på att jag inte gillat något quake spel allt för mycket. Det är lika illa som då nvidia inte tillät "enthusiast" inställningarna att fungera i crysis.

Visa signatur

CPU: Intel i7 12700K Mem: 32GB DDR5 GPU: Nvidia RTX 4090
Storage: SN850 2x2TB + 3x2TB 860 EVO MB: ASUS Z690 Hero
Chassi: Phanteks P600S PSU: Corsair RM750x OS: Windows 11

Permalänk
Medlem

Är inte förvånad, klart som fan att AMD (ATI) har "fuskat" också, tror man att dom har rent mjöl i påsen är man bra naiv. Nvidia har redan gjort felsteg och vi kan väl hoppas att dom bägge lärt sig något. Tror både är lika god kålsupare när det gäller sånt här mygel.

Permalänk
Medlem
Skrivet av Kristers bensin:

wow... fakta på det? Och som sagt tidigare, andra biltillverkare ska inte bestämma vad som är standard i deras bildator's mjukvara. Allt detta är bara en pajkasting från Nvidia, jag tycker att du orici ska dra dig ur och låta nvidia sköta det. Om AMD nu släpper riktiga höjdarkort och börjar pajkasta nvidia för att deras kort brinner är det lika dåligt, om de inte redan gjort det.

Nej, det nVIDIA sa att det ger en orättvis jämförelse mellan korten då nVIDIA kör med mer krävande default inställningar.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Skrivet av Asheileon:

Om detta stämmer och det är medvetet gjort så är det fult om man nu också påstår att t.ex kommande 6970 är snabbast av alla single-kort.
Tråkigt om det är avsiktligt, men se bara på MLAA som AMD tycker är en bra idé det sunkar ju till bilden hemskt mycket.

Jag ser fram emot 69xx men detta var inga roliga nyheter alls även om jag föredrar nVIDIA och Intel till eget bruk.

Klart det är medvetet gjort och det har funnits länge och vad är problemet? ATI har sina default inställningar och nvidia sina? Man kan ju ändra och tabort det om man vill.

Visa 2st bilder från spel med MLAA som visar hur fult det blir? För jag vet inte vad du menar.

Konstigt att man inte ska kunna köra GTX 580 på aboslut max utan att man riskerar att skada kortet. :S

Visa signatur

Antec Twelwe Hundred | Asus M4A78-E | Phenom 2 x4 940 Black Edition, Corsair H50 Hydro | Sapphire 5870 1GB Vapor-X | Fractal Design 650W | Kingston 4GB 800MHz DDR2 | Samsung SyncMaster P2450H | Apple iPhone 3GS 16GB | Sony PlayStation 3 Slim 250GB

Permalänk
Medlem
Skrivet av Orici:

Nej, det nVIDIA sa att det ger en orättvis jämförelse mellan korten då nVIDIA kör med mer krävande default inställningar.

är väl endå inte AMD´s fel att de som testar inte ställt in det lika?

Visa signatur

-PC- HAF932 - i7 920d0 oc 3.8ghz - P6TDELUXE v2 - Asus 7950 3GB TOP - Samsung 830 128gb - 2xWD 1TB Black - Asus Xonar Essence STX - Logitech G400 - Sennheiser pc360G4me - Logitech Z5500 - S27a950d 120hz - 2233RZ 120hz
GAME | Dota2 | Age of Conan
Youtube: http://www.youtube.com/user/b4nto

Permalänk
Medlem

är det nån som bryr sig egentligen? känns som om det finns större problem i världen...

Permalänk
Hedersmedlem
Skrivet av jonaktiv:

är det nån som bryr sig egentligen? känns som om det finns större problem i världen...

Självklart, men detta är en teknik/dator-site. Precis allt som presenteras här klarar vi oss utan, om än med sänkt livskvalitet för en del. Om fikonlöv och Jesus-sandaler lockar mer kanske du valt fel sajt att läsa?

Visa signatur

W10, Intel 5820K, Asus X99-S, Crucial DDR4 2133MHz 32GB, Sapphire 290X Tri-X, Intel 730 SSD, WD Black+Green+HGST, Silverstone FT02, Corsair AX1200, Corsair K90, Logitech MX518, Eizo 2736w, Eaton 5115 UPS. Pixel 7 pro

Permalänk
Medlem

sjukt dåligt sätt från nVIDIA´s sida att försöka vinna nya kunder....

Visa signatur

|Workstation: AMD Ryzen 9 7900X 4.7GHz | ASRock X670E | AMD Radeon 7900 XT | 32GB DDR5 | NVMe 2.0TB | HDD 4.0TB |
|VMware rig: AMD Threadripper 2920x | ASUS PRIME X399-A | 24GB DDR4 | 10TB Storage |
|HTPC: AMD Ryzen 3 2200G 3.7 GHz | Gigabyte B450M DS3H | Radeon Vega 8 | 8GB RAM | SSD 120GB | *Test rig för div Linux distar, drivers m.m.

Permalänk
Avstängd

om detta sk fusk

det finns ett ordspråk om att kasta sten när man sitter i ett glashus. detta var garanterat inte amd:s fel för den delen heller..

jag tillhör de som knappt visste vad AF var för något och jag undrar om det gör någon större skillnad i spelupplevelse för den delen heller.

Visa signatur

dator: amd phenom 965 C3 3616mhz. gigabyte 5850 @ 826MHZ. 4 GB xms3 ram 9-7-7-20. Gigabyte GA-790XTA-UD4. corsair TX 650W 80+. benq 2222hdl. logitech s220 speakers. 640GB Western Digital Caviar Blue SATA II. logitech. Logitech Deluxe 250 Keyboard Svart OEM.
os: genuine windows 7 ULTIMATE 64 bit + alla viktiga updateringar
Mobil: htc desire HD + telia max 25

Permalänk
Testpilot
Skrivet av Krulleboll:

AMD (ATI) är ju kända för att fuska med drivrutinerna för att få bättre resultat i benchmarks. Här, runt 2001, var Quake3 standardspel för benchmarking. Givetvis fuskade ATI ganska ordentligt redan på denna tiden.

How ATI's drivers 'optimize' Quake III - The Tech Report - Page 1

"Kyle Bennett at the HardOCP found that replacing every instance of "quake" with "quack" in the Quake III executable changed the [ATI] Radeon 8500's performance in the game substantially. "

Och Nvidia kontrade lite senare med att fuska i 3Dmark, även känt som 3DMurk.
Further NVIDIA optimizations for 3DMark03? - The Tech Report - Page 3

Visa signatur

Kolla gärna in min RGB-LED-ljusstake i galleriet
[Gigabyte GA-Z97MX-Gaming 5][Intel Core i5 4690K][Corsair XMS3 16GB][Asus GeForce RTX 2060 Super Dual Evo OC]

Permalänk
Medlem
Skrivet av adolf512:

jag tillhör de som knappt visste vad AF var för något och jag undrar om det gör någon större skillnad i spelupplevelse för den delen heller.

Det gör skillnad, och mycket, 1 är likvärdigt att kolla genom en flaskbotten och 16x, ehm, är som att inte titta genom en flaskbotten... med 1x af så ser man inte ens texturerna, dvs alla väggar osv blir som blanka...

Permalänk
Medlem
Skrivet av adolf512:

jag tillhör de som knappt visste vad AF var för något och jag undrar om det gör någon större skillnad i spelupplevelse för den delen heller.

Skrivet av Dalton Sleeper:

Det gör skillnad, och mycket, 1 är likvärdigt att kolla genom en flaskbotten och 16x, ehm, är som att inte titta genom en flaskbotten... med 1x af så ser man inte ens texturerna, dvs alla väggar osv blir som blanka...

Menar du att man ska dricka tills man ser flaskbotten? Då lär man inte se speciellt mycket efter det med en sjua Jim Beam i kroppen.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem

Otroligt hur folk verkar missa poängen så totalt. Medvetet?

Poängen är ju inte att man kan stänga av funktionen om man vill. Eller om man ser skillnaden eller inte. Poängen är att förmodligen alla tester som görs, görs med funktionen påslagen (har jag fel? Rätta mig isåf). Då bli hårdvarutester missvisande. Det är dessa tester som folk använder som argument om vilket kort som är bäst.

Låt mig ta ett exempel, om än något extremt:

Ett grafikkort testas, och med en funktion påslagen så sänker den upplösningen från 1920x1200 till 1680x1050. Man kan om man vill ändra inställningen så att det blir den faktiska upplösningen.

Skulle detta accepteras? Knappast.

Permalänk

Har ett 6850 som jag är nöjd med men detta är ett rätt så grovt fusk av AMD om det är sant.

Grafikkort ska givetvis komma med standardinställning utan märkbar degradering av bildkvalitet, i annat fall bör de informera sajter som testar korten att dessa måste ställa upp kvaliten för att vara likvärdig mot tidigare Ati kort och nvidias kort. Det ska vara upp till användaren att degradera kvaliten för att få prestanda eller så ska det vara tydligt. Ati nu med lägre bildkvalitet.

Stämmer detta så bör alla tester av Ati korten göras om med nya inställningar så att resultatet inte längre är missvisande jämfört med tidigare Ati generationer och nvidia kort. Utifrån bilderna jag sett är det en tydilgt märkbar skillnad. Detta behöver undersökas betydligt mer ingående då det just nu faktiskt inte är så mycket att gå på.

Sedan undrar jag om nviidias furmark fusk inte kan ha att göra med Starcraft II som fungerade som ett Furmark och brände upp grafikkort i pausmenyn. Många sitter med bara en chassifläkt i lådan och steker kort utan att plåga dom. De flesta är inte entusiaster. Så jag tror stoppet är bra men nvidia skulle ha sagt till om det för det är ett litet fusk i tester som drabbar entusiaster.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg