40 Gbps räcker för 4K/120 med 10 bitar utan färgsubsampling.
Jag gissar på att du tänker på att Dolby Vision oftast framställs som ett 12-bitarsformat. Men det är inte riktigt så det fungerar. DV består av flera nivåer med 8- och 10-bitarskodning eftersom det bygger på HDR10/SMPTE ST-2084.
Gissar att "12-bitars"-förvirringen kommer utifrån de förutsättningarna som dynamisk metadata och metoden runt ”RGB Tunneling” som DV använder för att packa information. Grundidén är att TV genom detta kan anpassa sin tonemapping utifrån sin panels förutsättningar, snarare än försöka pricka in de absoluta nivåerna SMPTE ST-2084. Detta skulle ge en effekt motsvarande 12-bitars precision men jag tror detta (miss)tolkas som att det är 12-bitars signal och 12-bitars källmaterial.
Edit: så fann en snabb förklaring i ett dokument. DV kodar om en 12-bitars innehåll till en 8-bitars RGB-ström. Så 12 bitars precision är möjligt och endast med 4:2:2-subsampling, men det transporteras alltid via 8 bitars RGB.
Har tyvärr inte haft möjlighet att fördjupa mig runt detta eller träffat någon som kan mer. Men de specar jag har runt DV handlar om 8- och 10-bitars format.