Tyvärr är det alldeles för liten skillnad för att betala det lilla extra med Nvidia. Önskar dem sålde kort utan RT-kärnor som hade mer fokus på "vanlig" prestanda (kanske inte riktigt är så enkelt) för en billigare peng.
RT-kärnorna utgör bara cirka 6% av RTX-kortens totala TPC:er.
Tensorkärnorna är betydligt större på cirka 11,5% av en TPC.
TPC:erna i sin tur är förvisso majoriteten av en die men inte allt.
Så avrunda ner det till typ 14% eller något (höftat) om vi ska prata kostnad, medan vi kan behålla det på 16,5% om vi pratar att konvertera till CUDA-kärnor.
Men säg att man hade slängt båda så snackar vi någonstans totalt som höst 10% billigare eller 10% snabbare på sin höjd. Men knappast båda man kan ju inte både behålla kakan och äta upp den.
Men "på köpet" hade man förlorat vad de flesta anser vara framtidens renderingsteknik och 15-25+% prestanda för dem som kan tänka sig att spela med DLSS.
Så i mångas ögon hade det ju då handlat om att man kanske fick ett sämre "4080" för 7000 kr eller ett "riktigt" "4180" för 7700 kr om vi pratar att skala bort för att sänka pris. Det blir nog för nära vartannat.
Eller ännu värre om man "ersatte" RT/Tensor med CUDA-kärnor: då hade de haft samma pris och det hade varit kladdigt för slutkunder att välja om vi talar gemene man vilket är majoriteten av kunderna.
Säger inte att det inte är värt det för vissa personers önskemål alltså. Är man helt ointresserad av RT och DLSS så är det ju förstås wasted space.
Men det är nog för små skillnader och för ovanliga önskemål för att Nvidia skulle se någon lönsamhet i att starta upp en separat produktionslina med sådana GPU:er.
Och dubbla serier av kort hade nog varit ganska jobbigt för både Nvidia och kunder (samt mellanled).