Ursprungligen inskrivet av DrRotmos
Du inser att det är lite fel att kalla det för en slumpgenerator, eftersom talen som genereras inte är slumpmässiga? Du KAN säga att det i stort sett är en pseudoslumptalsgenerator, eftersom dessa använder deterministiska algoritmer.
Nej det har inte tagit mig ett år att komma på ett svar, såg att tråden hade necrobumpats så jag tog en titt 8).
Nej jag anser inte att det är en slumpgenerator, ärligt talat anser jag att slump är befängt och inte existerar, t om nuklärtsönderfall sker enligt ett mönster, inte förutbestämt eller möjligt att upprepa då det finns faktorer kvar sedan universumskapande. Förekomsten av slump är lika troligt som magi och högre väsen i min mening.
EDIT:
Ursprungligen inskrivet av Raz
Nått extremt
t.ex en fil på 4GB som innehåller enbart 1r
md5-summan kommer bli 32B stor.
antalet ettor = storleken*8 = 34359738368 stycken, 11 tecken = 11B som ska sparas + storleken, 4294967296, 10 tecken = 10B
så den komprimerade filen kommer vara 32+11+10+1 (md5 + 1r + storlek av orginal + eof) = 54B
så från 4GB -> 54B
ganska extrem komprimering dvs
Problemet nu är uppackning, första ska man slumpa fram rätt fil av en storlek på 4GB tills man får rätt md5-summa, sen är md5 vad jag förstått en envägsalgoritm, så chansen finns att det finns, även om liten >1 fil på 4GB med rätt antalet ettor (kanske inte i detta fall) som har samma md5summa (om jag har fel får någon rätta mig), så att packa upp en 4GB stor fil packad med fulpack skulle kunna ta hundratals år
När jag testade programmet anände jag en fil på 2 tecken + eof, dvs 3B stor, vilket tog mellan 100 och 10000 försök att packa upp, en fil på 4B kunde ta upp mot en miljon försök att få tillbaka, lite onödigt då orginalfilen är 3B och den packade blev 38B
Det där kommer vara brukbart när vi får kvantdatorer hehe, bara man typ tar och lägger till var miljonte täcken så kommer man ha data till att ursilja den rätta datan från de med samma hash