Skrivet av Fenrisulvfan:
Ingen standard har satts för att förhindra mining det varken tror eller påstår jag
Okej, du säger nu att standarden som tillåter högre effekt har inget med mining att göra.
Jag tolkar det som att PCI-SIG och ATX inte är involverade i att förhindra mining. Ok.
Då ligger antimining-biten antingen hos kretskonstruktören (nvidia, amd, intel etc) eller hos partnertillverkaren.
Skrivet av Fenrisulvfan:
det kan däremot vara mer lukrativt att sälja grafikkort som drar mer ström i standard läget, så länge det går att pressa ut några uns prestanda extra a.k.a fabriksöverklockning.
Det här talar mot din sak. Fabriksöverklockning kom före mining. Det är ett sätt för partnertillverkaren att stå ut i benchmarks, öka sina marginaler och segmentera fram fler produkter att sälja.
Menar du att fabriksöverklockning är för att motverka mining? I så fall är pratar vi ett par tiotals watt skillnad, inte de 300->400w som kretstillverkaren står för som tidigare diskuterats. Men vad är partnertillverkarens incitament att motverka mining menar du? Det är inte partnertillverkarna som bygger beräkningskorten med de höga marginalerna.
Eftersom en miner kör grafikkorten vid lägre power limit finns det inte heller något incitament till att köpa fabriksklockade kort (såvida inte de fabriksklockade korten råkar vara billigast på marknaden).
Skrivet av Fenrisulvfan:
Jag har inte heller påstått att nya grafikkort skulle ha lägre effektivitet per watt, utan jag tror snarare att den exponentiella ökningen snarare planar ut. Detta då ökningen i rå prestanda kan vara viktigare än effektivitetsökningen.
Skrivet av Fenrisulvfan:
Som exempel kanske ett 2060 drar 100W medans ett 3060 drar 150W med 20% bättre prestanda, så kanske ett 4060 drar 225W med 25% bättre prestanda istället för att dra 200W med 20% bättre prestanda.
Du skriver att nya grafikkort inte har lägre effektiviten per watt, men du ger ett påhittat exempel som visar just det.
2060, 100w, 100% prestanda. Effektivitet: 1% prestanda per watt.
3060, 150w, 120% prestanda. Effektivitet: 0.8% prestanda per watt.
4060, 225w, 150% (1.2*1.25) prestanda. Effektivitet: 0.67% prestanda per watt.
Om ditt exempel stämde skulle miners flockas till gamla budgetkort eftersom de ger högre prestanda per watt. Jag vet inte i vilken ände du gör din tankevurpa, men jag föreslår att du tittar på faktiska hashrates med anpassade power limit-inställningar, så vi faktiskt diskuterar något konkret.
Första bästa googling visar att generellt får man bättre ROI på stora strömtörstiga flaggskeppskort än budgetkort.
https://minerstat.com/hardware/gpus
Jag kan också slänga ihop ett påhittat exempel, så här får du ett.
Du besöker prisjakt och möts av följande kort:
5090ti med full prestanda, 400w 20.000kr
5090ti med 85% energieffektiv prestanda. 300w 19.500kr eftersom kylaren är krympt.
5090 med 85% prestanda av 5090ti men 380w. 16.000kr
Tror du att majoriteten av kunder skulle välja det energieffektiva kortet över 5090 med samma prestanda?
Tänk på att den som bryr sig om förbrukning, redan har power limits, frame rate limiters och vsync att tillgå.
Skrivet av Fenrisulvfan:
Att jaga ner mängden Watt blir liksom inte så intressant för AMD & Nvidia.
Nej, men det är ju inte ett argument för din sak, tvärtom.
Om nvidia och amd var motiverade att jaga ner förbrukningen men vi ändå såg den stiga, då hade det varit läge att börja spekulera i om det finns någon bakomliggande anledning till detta. Exempelvis att förhindra mining.
Men nu är vi alltså överens om att de saknar incitament att få ner förbrukningen.
Låt oss börja med att applicera Hanlons rakkniv, "Tillskriv aldrig något ont uppsåt när det kan förklaras med dumhet." I den här kontexten blir det följande:
Om nvidia saknar incitament till att få ner förbrukningen, är det troligare att hög förbrukning kommer av lättja än att det skulle vara en sammansvärjelse mot miners.
Vi fortsätter med Ockhams rakkniv "Om flera olika förklaringar till ett fenomen föreligger, så bör man välja den enklaste av dem."
Det enklaste svaret på hög förbrukning är precis som du skriver "Att jaga ner mängden Watt blir liksom inte så intressant".
Slutligen, så finns det ytterligare en dimension av hur man sätter power limit. Spel gör sig bättre med en hög och flexibel power limit eftersom belastningen varierar med vad som ska renderas. Det är fördelaktigt att kortet har effektutrymme att skala upp för att behålla framerate när en scen blir mer komplex att rendera. Det finns alltså ett direkt incitament att sätta en power limit som inte är energieffektiv, med målsättning att kortet inte ska befinna sig på absolut peak större delen av tiden.
Konkret exempel, du kör gsync/freesync till 120Hz, ställer inställningarna så kortet ska klara 120Hz med marginal. När det plötsligt kommer massa effekter på skärmen har kortet energibudget till att skala upp och behålla 120Hz, något du betalar för med lägre energieffektivitet. Vill du få ner energiförbrukningen ytterligare, lås till 100Hz, kortet kommer skala ner sin förbrukning.
Utifrån ovanstående blir min nästa fråga, hade alternativet varit rimligare? Att power limit sätts i syfte att maximera energieffektivitet? Ett sådant kort hade rakt ur lådan varit mer lämpat för mining än gaming. Det verkar underligt att sälja till gamers.
Skrivet av Fenrisulvfan:
För 25 år sedan användes inte grafikkort till mining då det inte fanns kryptovalutor.
Det var precis min poäng. Din tes saknar förklaring på varför ökningen från 25w->300w skedde, men har förklaringen att 300w->400w skedde på grund av mining. Kan du inte motivera varför effektökningen plötsligt byter anledning efter 30 år känns retoriken minst sagt skakig.
Samtidigt visar serversidan med sina besläktade beräkingskort en ökning från 350w -> 700w under samma period, trots att mining inte är ett problem på professionella beräkningskort. Din tes saknar förklaringsmodell om varför det ser ut så.
Skrivet av Fenrisulvfan:
En klase grafikkort som drar 1kWH kostar kanske 2 kronor i timmen att gräva krypto med och man kanske hittar krypto för ett värde av 5 kronor, skulle samma klase grafikkort dra 2kWH så tjänar man bara 1 krona per timme istället för 3 kronor per timme.
Ja, det är helt riktigt. Men för att citera ditt inlägg ovan "Jag har inte heller påstått att nya grafikkort skulle ha lägre effektivitet per watt" så är det fortfarande mest lönsamt att köpa ett nytt grafikkort.
Om det nya kortet har högre effektivitet per watt, som du skriver, så är det ett nytt kort som gör att du tjänar 3 kronor per timme och ett gammalt kort med lägre effektivitet per watt som gör att du tjänar 1 krona per timme.
Här saknar du än en gång förklaring till hur detta är ett hinder för mining. Om nya kort ger bäst prestanda per watt, så är det nya kort som en miner vill ha, det ger högst ROI.