Rent allmänt så skulle man ju i princip kunna köra varje Ray i sin egen thread, alltså skulle man kunna köra varje pixel på skärmen med en egen thread. eller något sånt... i Framtiden när vi har GigaCore processorer, så skulle man kunna låtar varje core ansvara för en pixel på skärmen.
Eftersom raytracing är baserad på mjukvaruberäkningar, och inte är beroende av hårdvarans begränsningar, så kan man i princip räkna lite hur man vill. (här menar jag exempelvis dela upp arbetet i många threads.) Iallafall tills hårdvaran börjar stödja raytracing, sen är man låst till vad hårdvaran/standarden tillåter.
För dom som fortfarande inte förstår vad raytracing är, så kan jag säga att raytracing är baserat på äkta fysiska beräkningar på ljus. medans vanlig 3D som vi har nu är mest ett fulhack får att få det att 'Se ut som" äkta. (dvs behöver inte nödvändigtvis vara baserad på fysik alls.) fördelen är dock att fulhacket är mycket snabbt jämnfört med raytracing. medans raytracing räknar hur äkta ljus beter sig.