Det enda sättet att teoretiskt kunna höra skillnad mellan 16bit och 24 bit, är dom du spelar väldigt högt. Du måste överkomma bakgrundbrus, så du måste dra på ljudet för att ens teoretiskt kunna höra bruset som uppstår av att det är en 16 bit signal. I många fall kommer elektroniken att addera eget brus som tar bort alla chanser att höra bruset av att ljudet är 16 bit.
Så när det kommer till lyssning så är det i praktiken omöjligt att höra skillnad på 16 bit och 24 bit, om mastern är densamma.
När det kommer til samplingsfrekvens, så finns det en risk att det högre frekvensomfånget som inte kan återges faktiskt skapar hörbar distortion, och det läget så får du sämre ljud, rent utav. 44.1khz, räcker till mänsklig hörsel.
När det kommer till att äga filer så föredrar jag lossless, då det går att konvertera till vilket format man vill, utan onödigt kvalitetsförlust som kan uppstå av att man konverterar från ett lossy-format till ett annat. Jag brukar använda Flac, för att det är lossless men med mindre filstorlek, och med stöd för id taggar. Man kan helt enkelt konvertera det tillbaka till wav vid behov, och få en identisk fil.
När det kommer till streaming, så vill jag först få bevisat att det gör skillnad på den specifika tjänsten, för den högsta kvalitetsnivån som inte är lossless. Det finns musik på spotify som har clipping, men där jag inte hört original-mastern, så jag har ingen aning om det är avsiktlig clipping, eller om det är deras process när dom konverterar som introducerat det (det kan också bero på att dom använder en limiter som skapar clipping redan innan konvertering, om artist inte levererat en master med rätt lufs). Modern pop använder också ofta effekter som kan resultera i ljud som låter som komprimeringsartifakter, så man kan luras att tro att det är lossy-formatet som ställt till det, fast det egentligen är produktionen.
Om format eller bandbredd/datamängd är kritiskt som vid streaming, så ska det inte vara något problem med bra lossy-komprimering, om konverteringsprocessen också gått rätt till. Skillnaden är inte hörbar, helt enkelt.
När det kommer till en gammal master som för Pink floyd, så måste dom ha remastrat med noise reduction, för 16 bit har lägre brusnivå än den original-mastern. Jag är också tveksam till att master-tapen skulle ha något avsiktligt frekvensinnehåll bortom 20.000Hz, vilket man får ut av 44.1Khz med AA filter, så inte nog med att du inte hör det för din hörsel sträcker sig inte ens till 20.000Kz, det är sannolikt ingen faktiskt inspelad ljudinformation som finns på 24/96 mastern utökade frekvensgång, om dom inte använt någon process för att försöka addera extra frekvensinnehåll, som du då ändå inte kan höra oavsett.
Så 24/96 versionen är antingen en fil som skiljer från master-tapen, eller så har du bara en massa extra brus sparat i din fil.
Det finns teoretiska anledningar att spela in med 24 bit, eller 32 bit floating point (men det handlar om att rädda ljudinformation från en icke optimal tagning, under normala inspelningsförhållanden räcker 16 bit, bara man ställer gain rätt).
Det kan också finnas anledning att arbeta i ett projekt som är 96Khz eller mer, på grund av hur vissa mjukvarueffekter är programmerade så saknar dom intern over-sampling, och då kan man faktiskt få hörbar aliasing, vilket man kan komma ifrån genom att köra plug-in'en i högre samplingsfrekvens.
Men när man sedan gjort en master så kan man utan problem konvertera till 16bit 44.1Khz, utan att något hörbart försvinner, så kvaliteten blir inte sämre, filen blir bara mindre.
Det finns dock många inom musikproduktion som också faller på hifi-myter, och företag som gärna göder den för att få sälja sin dyrare utrustning (och för en del år sedan nya versioner av plug-ins).
Jag har också en gång i tiden trott på hifi-myter.