Inlägg

Inlägg som UndaC har skrivit i forumet
Av UndaC
Skrivet av jnilssonn:

Tyvärr är det alldeles för liten skillnad för att betala det lilla extra med Nvidia. Önskar dem sålde kort utan RT-kärnor som hade mer fokus på "vanlig" prestanda (kanske inte riktigt är så enkelt) för en billigare peng.

RT-kärnorna utgör bara cirka 6% av RTX-kortens totala TPC:er.
Tensorkärnorna är betydligt större på cirka 11,5% av en TPC.
TPC:erna i sin tur är förvisso majoriteten av en die men inte allt.
Så avrunda ner det till typ 14% eller något (höftat) om vi ska prata kostnad, medan vi kan behålla det på 16,5% om vi pratar att konvertera till CUDA-kärnor.

Men säg att man hade slängt båda så snackar vi någonstans totalt som höst 10% billigare eller 10% snabbare på sin höjd. Men knappast båda man kan ju inte både behålla kakan och äta upp den.

Men "på köpet" hade man förlorat vad de flesta anser vara framtidens renderingsteknik och 15-25+% prestanda för dem som kan tänka sig att spela med DLSS.

Så i mångas ögon hade det ju då handlat om att man kanske fick ett sämre "4080" för 7000 kr eller ett "riktigt" "4180" för 7700 kr om vi pratar att skala bort för att sänka pris. Det blir nog för nära vartannat.

Eller ännu värre om man "ersatte" RT/Tensor med CUDA-kärnor: då hade de haft samma pris och det hade varit kladdigt för slutkunder att välja om vi talar gemene man vilket är majoriteten av kunderna.

Säger inte att det inte är värt det för vissa personers önskemål alltså. Är man helt ointresserad av RT och DLSS så är det ju förstås wasted space.
Men det är nog för små skillnader och för ovanliga önskemål för att Nvidia skulle se någon lönsamhet i att starta upp en separat produktionslina med sådana GPU:er.
Och dubbla serier av kort hade nog varit ganska jobbigt för både Nvidia och kunder (samt mellanled).

Av UndaC

Annonsören har avslutat denna annons.

Av UndaC
Skrivet av Xmaddict:

1200 hämtas ikväll för snabb affär?

Hej, jag ber om ursäkt men jag har glömt ta ner annonsen. Den är redan såld till det efterfrågade priset.

Av UndaC
Skrivet av SleeZy:

Så exakt varför ska 100.000 representera dessa hundra miljoner?

Om vi skippar matematiken och bara går på resonemanget:

Kortfattat:

Om det finns en begränsad mängd variabler (komponenter, operativsystem osv) som är fördelade per invånare och du slumpvis väljer ut ett antal invånare och frågar dem så kan man gradera det på en skala:

Frågar du 1 person av en miljon så säger givetvis ditt resultat dig ingenting.
Frågar du 100 personer så kanske du börjar få en indikation på något.
Frågar du 1 000 personer börjar du få resultat som är ganska nära den sanning du fått om du frågat hela miljonen.
Frågar du 10 000 personer så får du ett resultat som ligger så pass nära det resultat du skulle få om du frågade hela miljonen att det blir menlöst att fråga fler.

De andra har inte blivit frågade, men det finns en brytpunkt där det inte längre är lönt att fråga dem för att deras svar inte påverkar resultatet.

Detta har betydligt smartare folk än mig räknat på och man har kommit fram till beräkningsmodeller där man hittat var brytpunkterna går ungefär.

Efter att du nått brytpunkten börjar du att få ett jättestort spann på säg 11 001 till hela totalen där felmarginalen på alla praktiska sätt och vis är oförändrad. Och eftersom den redan var oförändrad vid 10 000 är det då alltså menlöst att ens bemöda sig med fler svar, därför slutar man.

(De två vanligaste anledningarna att man inte vill fråga fler/oftare förutom att det inte ger bättre resultat är:
Det blir för mycket data att hantera.
Det blir för "spammigt" att få frågan.
(Angående att det är spammigt att få frågan så kan man såklart kringgå det genom något slags passivt deltagande, men vi vet inte riktigt vad effekterna av ett sådant upplägg skulle vara eller varför Valve inte valt det så jag lämnar det därhän.))

Av UndaC
Skrivet av hg:

Vet nog inte riktigt om jag håller med påståendet om att detta är förträfflig marknadsföring för Nvidia.
Borta på r/Nvidia subreddit så verkar konsensus vara att detta nog är en av de sämre implementationerna av DLSS, med fram för allt mycket "shimmering" runt kanter (typ träd, päls, gräs) när man rör på kameran och överdriven sharpening med tillhörande artefacter.

Typ som detta (DLSS Quality på):
https://streamable.com/uck99t
https://streamable.com/7raw58

Ojdå ja, den första videon där var ju komiskt dålig, kaktusarna är änglar tydligen

Vi kanske får återbesöka ämnet men det känns inte representativt för vad vi såg. Dock som det också syns i våra screenshots så började det ju synas till i performance-läget i 4k även för oss om än inte alls så extremt som dessa videosnuttar.

Av UndaC
Skrivet av ronz:

Ok provat nu. Det är overall väldigt trevligt.
Men det är väldigt mycket "sharpening halo" kring vissa objekt?

Vid lägre upplösningar och/eller DLSS på Performance blir det absolut lite ringing/halos ja. Vi pratade till och med om det medan vi skrev på artikel. Bra att du sa det, jag lägger till det i texten!

Av UndaC
Skrivet av Nightcrawler:

Tur synen inte är så skarp längre för vid en snabb anblick ser jag ingen större skillnad på någon bild, har inte studerat i detalj dock vilket jag inte heller gör när jag spelar spelen.

En mer tydlig effekt är den orolighet vi pratar om i artikeln. Dansande pixlar mer eller mindre.

Det är i min mening svårare att undgå än lite mer generell suddighet tex.

Av UndaC
Skrivet av pine-orange:

https://store.steampowered.com/hwsurvey/directx/
Jag tänker på nu i juni, förändringen från maj till juni för windows 10 och windows 7 är orimliga tycker jag.

Jo onekligen.
Det skulle möjligtvis kunna vara någon slags felavläsning av Windows 11.
Men jag vet inte hur många som är med i Insider i dev-ring år 2021, enda siffran jag hittar är 2015 då 7 miljoner användare deltog i samtliga rings vilket ungefär motsvarade 3% av alla Windows 10-användare. Och slår man ihop det med alla som fixade sitt Windows 11 på annat håll så kanske.

En teori iaf
Om det kvarstår i juli skulle jag nog känna mig mer säker på saken.

Av UndaC
Skrivet av zather:

Vilket lyft det blir med DLSS över TAA!
Speciellt i texturerna som ni skriver, blir ju som en ökning av flera grafikinställningar i spelet + en prestandaboost.

Jo, om man jobbade på nvidias marknadsavdelning och skulle välja ett spel för att visa DLSS hade man nog valt det här spelet

Men det har ju mer att göra med rockstars usla taa än dlss förträfflighet. TAA behöver absolut inte vara såhär dåligt.

Edit: tydligen kanske inte så bra i alla lägen visar det sig:
#19164476

Av UndaC
Skrivet av pine-orange:

Det ser ut som att det har gått något fel med windows 10, windows 7 datan. De verkar ha vänt på dem.

Tänker du just nu i juni eller på det jag nämnde om december?
För typ allt verkar tokigt i december.

Av UndaC
Skrivet av SleeZy:

Men du har en bra poäng. Men de bör helt enkelt ha en "do you allow us to survey your hardware for steam survey monthly" box Ja/Nej. Enkelt så.
Men visst det hade varit lite lustigt om de flesta då istället tackar nej, och får mindre data istället.

Håller med om att det låter som en bättre lösning, om nu folk hade valt att opta in i tillräcklig utsträckning.

De skulle ju kunna testa helt enkelt. Jag antar att de har övervägt det (eller kanske till och med gjort det).

Av UndaC
Skrivet av pine-orange:

Frågan är hur mycket mer exakt det blir. Troligtvis inte tillräckligt mycket annars hade de samlat in mer data, Valve tjänar inget på att ha en felaktig bild av verkligheten.

För att uppnå en felmarginal på under en procent behövs ungefär 10-17 tusen respondenter av en population på 100 miljoner. Säg 20 000 för att vara på den säkra sidan och hamna under en procent.

Att döma av marknadsandelarna för mer udda produkter i SHS ser det ut som om de har minst 100 tusen. Troligen fler.

Däremot är det ju inte ofelbart. Data kan bli tainted. Det har hänt förut men det sticker ju ut och rättas i regel till i efterhand (som exemplet med VR headset i juni). Däremot har vi ju ett ”nutida” exempel i form av december som ser helt tokigt ut.

Det finns ju också det problemet som AMD påpekat:
På offentliga datorer, internetcaféer osv så kan samma dator får frågan flera gånger om.
I fallet som AMD pekade ut så rör det sig om kinas största internetcafekedja som tydligen uteslutande använder Intel-CPUer.

Och visst är det kedjan tillräckligt stor så påverkar det ju resultatet. Men då är det mer bara en fråga om att Valve inte borde mäta samma dator mer än en gång per månad. Snarare än att felet skulle ha rättat till sig med ett större sample size.

Det kan bli fel på många olika sätt, men på sätt som inte har med sample size att göra. Dock verkar många blanda ihop problemen eller lösningarna med sample size.

Av UndaC
Skrivet av Dalton Sleeper:

Alltid kul och intressant med dessa test, dock förstår jag inte varför bildvisarna har en svepande transition när man klickar nästa bild. Helt ologiskt att ha transition då man inte kan hålla ögonen på en konstant position när bilderna flyger in och ut, för det är ju jämförelserna man är intresserad av här.

Är det min webbläsare som har denna effekt (Edge), eller är det något Swec kan göra?

Första gången man laddar bilderna har man det. Men efter det så är det instant. Iaf för mig i chrome.

Sen föredrar jag personligen att ladda ner och bläddra själv. En grej vi har på önskelistan är ju dock såndär gardin som man kan dra fram och tillbaka för att jämföra två bilder. Det vore amazeballs.

Av UndaC
Skrivet av SCORPIUS:

När ni håller på med allt det här, glöm inte att det finns andra sätt att ge mer skärpa som ni kan använda i kombination.
Det finns i Nvidias kontrollpanel och det finns i reshade.

Och tack så mycket för testet. Ni levererar 👍

Vi känner att det blir lite överkurs att dra in tredjepartsverktyg i just den här typen av tester.

Däremot så kan ju de verktygen få ett eget test vid tillfälle.

Av UndaC
Skrivet av SleeZy:

Exakt därför de borde jämföra data genom alla deras användare inte slumpmässiga.
Om alla steam användare skulle reggas under ett år skulle vi ha så mycket bättre data än slumpmässig data.
Det är ju det är min poäng.

Och min poäng är att det du säger inte stämmer förutsatt att Steam har en rimlig storlek på en slumpartat utvald sample av användarna.
Det blir inte mycket bättre då. Det minskar felmarginalen med någon enstaka procentenhet eller bråkdelar av procentenhet.

Om du vill ha en mindre kommersiell motsvarighet till de kalkylatorerna jag länkade innan så finns det en ganska bra men matigare genomgång här:
https://www.geopoll.com/blog/sample-size-research/

Din take på det är att du inte håller med. Men det du säger då är ju att resten av världen som jobbar med, tar fram, analyserar och tar beslut baserat på och livnär sig på den här typen av statistik har fel. Och de har fel i årtionden. Kollektivt, allihopa.
Det blir svårt att köpa, framförallt när de underlag du lagt fram för din tes hittills består av dina egna påståenden. I stil med ”det kan inte vara så” - det som saknas är ju ett varför, varför kan det inte vara så.

Av UndaC
Skrivet av aliassund:

Ni som redan hoppat på tåget, jag stod i begrepp att just köpa en ny SSD men det ser svårt ut att motivera en PCIE 4 SSD, är det frågan om "villhöver" eller faktiska vinster i ert fall?

Största anledningen är ju om du vill vara redo för Directstorage. Snarare än ”vanlig” lagringsprestanda.

Den andra anledningen är väl ”varför inte” nu när de bara kommer närmare och närmare varandra i pris b

Av UndaC
Skrivet av pv2b:

Ja, vilket exakt är anledningen till att vi har allmänna val och inte bara tillsätter riksdagen efter opinionsundersökningar. Att alla ska få rösta är en viktig demokratifråga av den anledningen. Däremot matchar opinionsundersökningar väldigt väl vad folk faktiskt röstar på, även om avvikelser så klart förekommer av olika skäl. De avvikelser som sker har dock ofta inte att göra med att det är ett slumpmässigt urval, utan andra anledningar.

Steam Hardware Survey är dock inte alls på samma sätt en demokratisk institution. Det är statistik. Det är inte någon slags plattform som man ska använda för att bestämma vem som man vill ska representera en de närmaste 4 åren. Syftet är helt annorlunda.

Jo precis. Man ska absolut inte blanda ihop SHS med åsiktsbaserade undersökningar.
Folk är oärliga/agerar inte som de tänker att de agerar etc. Medan SHS läser bara av vad man har i datorn.

Så otillförlitligheten som vi sett i valundersökningar är inte en faktor när vi tittar på SHS.

Av UndaC
Skrivet av SleeZy:

Det jag inte kan förstå om man ska jämföra datorer världen över. Då kan inte 100.000 utav 100 miljoner vara representativt.
Jag förstår vad ni vill förklara, men det är inte rättvis data. I ditt exempel, hundratusen användare utav ett hundra miljoner. Blir inte alls representativt.
Resterande icke tillfrågande miljoner har ju långt mycket mer varierande setups än vad dessa 100.000 tillfrågade har. Framförallt om vi ska räkna in fattigländer. De sitter på väldigt gammal hårdvara än idag. Även om 1000 av dessa blir tillfrågade så är dom inte representerade utav hundra miljoner, utan snarare en liten blipp utav dessa 100.000 som blev tillfrågade.

Variansen är stor och det är min poäng. Ni måste väl ändå hålla med om att datan skulle vara bra mycket mer pålitlig om alla steam användare jämfördes månad till månad.
Ju fler användare som jämförs månad till månad ju bättre data i det stora hela.

Är urvalet dåligt (som tex om de bara ställt frågan till svenskar) så faller ju det mesta förstås.

Men som sagt man kommer väldigt snabbt till en punkt där felmarginalen/variansen är så låg att det blir menlöst att addera fler samples.

Av SHS siffror att döma så skulle jag säga att de i alla fall ser ut att vara väl över 100 000. Vilket är fullt tillräckligt i sammanhanget. Felmarginalen minskar inte nämnvärt ens om du hade tillfrågat 90 miljoner av 100 miljoner.

Även med låg konfidensnivå för ens samples så når man relativt snabbt upp till en rimlig nivå. Du kan testa länkarna jag postade tidigare och laborera lite själv med siffrorna där.

Men angående avvikelser och om de finns. Hade det funnits stor varians i resultaten hade vi ju sett det i form av stora månatliga svängningar i resultaten. Men det gör vi inte i regel. Det händer och då är det i regel så synligt att man direkt förstår att något gått snett. Kolla tex december 2020.

Men absolut upp till en viss punkt är det vettigt att tillföra fler samples. Grejen är att den siffran inte är miljoner eller tiotals miljoner.
Det finns det hur många statistiker, regeringar, marknadsundersökningainatitut etc som helst som är levande bevis på. Så det du i princip säger så är ju att hela omvärlden som jobbar med statistik gör fel.

Och det hade man ju kunnat köpa om det var så att det fanns några tecken på att det var fel. Men ingen visat upp sådana tecken här. Så då blir det, i min mening, rimliga i sammanhanget att lita på vedertagna principer för hur man gör den här typen av undersökningar.

Btw så mailade jag Valve idag och bad om lite förtydligande. Typ genomsnittlig samples size, hur de arbetar med avvikelser, AMDs ankelselsee om att vara underrepresenterade pga kinesiska internet-cafeer osv
Jag betvivlar tyvärr att jag kommer få några vettiga svar. Men valve brukar gå rätt mycket på feeling så har nån en bra dag kanske de bestämmer sig för att hjälpa oss

Av UndaC
Skrivet av ottoblom:

Alltså marknaden för grafikkort över 600 dollar är mikroskopisk utan mining . Vill man kunna spela på en dator i framtiden behövs grafikkort som ligger betydligt billigare enkel mattematik .

Mikroskopisk är ju en sanning med modifikation.
I både antal och omsättning har det varit en starkast växande delen av grafikkortsmarknaden i ett par år nu. Framförallt i länder som Sverige.

Av UndaC
Skrivet av SleeZy:

Tror vi pratar runt om varandra här?

Min poäng är att, ska steam vara pålitliga så ska de ta med hela deras användarbas per månad, för de som är inloggade.
Inte att skicka en slumpad förfrågan till 10000 utav miljoner användare per månad.

Det jag är ute efter är riktig data månad till månad. Där de jämför alla steam användare månad till månad.
Men visst det kan ju bli lite fel med om 80 miljoner loggar in under juni och sedan 60 under juli, sedan 100 miljoner under augusti.
Men överlag så finns det bättre data att gå på när alla som använder steam jämförs. Inte x antar per månad utav flera miljoner användare.

Det jag och andra försöker förklara är att det finns statistiska modeller för hur många slumpmässigt utvalda individer i en given populationsmängd man måste ställa en fråga till för att få ett pålitligt resultat.

Steam lär vara långt innanför de gränserna baserat på andelarna som vissa produkter har (man kan med hjälp av dem räkna baklängsen på hur stor totalen minst måste vara, däremot kan man inte räkna på hur stor den möjligtvis kan vara som störst).

Man kommer väldigt snabbt till en punkt där man ökar antalet respondenter utan att det påverkar resultatet alls helt enkelt.
100 000 individer ger en exakthet som är i princip identisk med 20 000 000 tex. om populationsmängden är 100 000 000.

Om du vill laborera lite själv kan du t.ex. mixtra med en standardmodell för hur man beräknar storlekar på samples sizes och dess tillförlitlighet:
https://www.surveymonkey.com/mp/sample-size-calculator/
https://www.calculator.net/sample-size-calculator.html

Det som då blir ytterligare ett lager av konfidens i just Steams fall är ju att de gör undersökningen varje månad.

Men absolut så kommer vissa saker, som jag nämnt tidigare produkter där vi räknar marknadsandelar i bråkdelar av en procent, inte blir helt tillförlitliga. Men de stora penseldragen är väldigt pålitliga.

Det tredje lagret av konfidens blir om vi kan hitta siffror som är jämförbara med Steams och det kan vi i viss mån. tex:
https://businessquant.com/global-gpu-market-share
https://businessquant.com/intel-and-amd-market-share-x86-desk...
De är förstås inte exakt de samma som Steams då steams gäller just för steams användare vilket får antas vara gamers primärt
Dessutom avser de sålda enheter, så de är data på vad som säljs nu, inte vad som redan finns hemma hos folk.