Inlägg

Inlägg som Syranide har skrivit i forumet
Av Syranide
Skrivet av Cyb3rH4Xter:

Såklart jag förstår vad du har skrivit och att det han försöker göra engentligen ska vara omöjligt. Men än så länge så har de gjort progress så då väljer jag att lita på dem.

Jo, fast dom har ju inte kommit någonvart, allting dom visar kan göras med publika forskningsartiklar... eller ja, du behöver inte ens det, för det är en extremt simpel teknik. Det enda dom verkar har gjort som ingen annan direkt har är att skriva effektiv kod och kanske några optimeringar, av hur det hela verkar. Dom har hitills inte visat en enda lösning eller ens försök att lösa de problem som alla andra erkänner existerar och som står ivägen för framtida praktisk användning. Som sagt va, nVidia har själva ett demo publicerat för 1.5 årsedan som använder GPUn för SVO, ~25FPS med GTX280 tror jag, men utan nämnvärd shading och det är bara en liten statisk kyrka, däremot presenterar dom några nämnvärda grafiska optimeringar... nVidia artiklarna och demot är utförda av enbart 2 forskare på nVidia och det tog dom med all säkerhet inte flera år som UD hållt på. Och det har funnits forskning och demon även år före nVidias senaste.

Av Syranide
Skrivet av Cyb3rH4Xter:

Vad är meningen med det här diskuterandet ifall allt han säger bara är skit ändå? Om ändå all forskning är emot honom, så behöver väl inte du rabbla upp den för alla och påpeka allt han säger? Det är väl snarare så att de som har något bra argument som är för honom ska säga det, sen får de som vill skriva "nä men forskningen säger annorlunda och de har alltid rätt". Men att skriva långa poster som ingen orkar läsa när det enda du egentligen vill säga är att forskningen har rätt är ju onödigt.

Det är väl precis det jag och andra försöker? Att motbevisa "felaktiga" tankar och UDs "felaktiga" påståenden? Sen kan det ta en mening att beskriva en tanke, helt felaktig eller helt korrekt... men att samtidigt styrka det man säger med en enda mening för folk som inte är insatta i ämnet är snudd på omöjligt.

Skrivet av Cyb3rH4Xter:

Jag tror inte hundra procent på honom, men kanske 90. När han till och med vågar ställa upp i en intervjuv och svara på frågor som alla arga förståsigpåare har ställt så tvivlar jag på att det är bluff rakt igenom. Eller brukar man hyra in ca 10 personer, fixa lokal och detaljer i lokalen, samt bli intervjuvad i dagens bluffar?

Sluta för det första att klanka ner på andra, du kallar oss "arga förståsigpåare", vi kan hitta på lika ogrundade och hatiska uttryck om er också, men de flesta avstår.

Iaf, då har du ju uppenbarligen inte förstått argumenten och faktan jag lägger fram, eller så orkar du helt enkelt inte läsa (eller förstår inte) utan tror helst blint på det han påstår, utan några som helst bevis. Och jag menar verkligen inte det som ett påhopp på dig. Allt han påstår i den andra intervjun är ytterst tvivelaktigt, ingenting av det han påstår bekräftas av det dom demo:ar... t.om. raka motsatsen, det dom demo:ar pekar exakt på de problem alla andra hävdar, och som ni sen kallar oss "hatare" för.

Och sen har anställda absolut ingenting med pålitligheten att göra... eller påstår du att alla som jobbar för en regering också måste veta om och hålla med om allt den regeringen gör, eller för att din snälla kompis jobbar hos regeringen och därför är regeringen också snäll? Det kan jag inte tänka mig, dom anställda har säkerligen som syfte att undersöka och ta fram nya algoritmer och metoder som gynnar UD, och det är det dom gör och dom får betalt. Är dom seriösa så är det säkert faktiskt ett bra jobb, jag skulle säkert inte ha något specifikt emot det själv, oavsett vad jag anser om tekniken i praktiken.

Du vet inte ens anledningen till att han anställt folk, kanske var det del av ett krav från Australien, kanske är det för att bygga upp ett värde i företaget om dom blir uppköpta, kanske för att det ska se ut som ett legitimt företag eller så kanske dom vill vara först med forska fram några algoritmer som dom sedan kan patenttrolla med... oavsett anledning så vet vi just nu inte varför, att då tolka det som en bekräftelse på att företaget är legitimt är naivt i min åsikt. Precis som den där scammen "kameraexperten", det fanns två registrerade anställda tror jag, de hade en webbshop och skickade tom ut varor till kunder... innan dom drog med allas pengar.

Av Syranide
Skrivet av el_genius:

Ok, tror jag fattar nu. Men skulle det vara möjligt att blanda teknikerna så att tex marken som inte är så viktig är av trianglar medan vapnet är av "atomer". Jag kom fram till att det förmodligen inte skulle funka, men jag frågar för säkerhetsskull.

Är absolut möjligt, men den absolut största fördelen med SVO är att man blir "oberoende" av geometrins komplexitet och istället betalar ett "fast" pris för varje pixel man vill rita... vilket gör att man troligtvis skulle få betala dyrt för att "bara" rita ett vapen. Så det är absolut möjligt, men i praktiken så förlorar man antagligen mer eller mindre fördelerna med SVO isf. För det är fortfarande möjligt att visa extrema detaljer med trianglar, precis som vapnena och karaktärer i spel idag alltid är avsevärt mer detaljerade än världen dom är i. Och för varje nytt FPS så blir dom alltid ytterligare lite mer detaljerade.

Skrivet av Cyb3rH4Xter:

Det var ett jävla diskuterande i den här tråden....varför inte bara vänta och se, ni ser ju själva hur han svarar på alla frågor och trycker upp skiten i ansiktet på de som inte fattar?

Jag ska inte hindra er att diskutera, men jag tror inte stenåldersmänniskorna satt och tjafsade om ifall hjulet skulle rulla när han som kom på det började prata om det, nä vänta och se säger jag bara.

Fast nu lever vi inte på stenåldern, i nutiden finns det gott om forskning och kunskap inom alla tänkbara områden, det betyder inte att vi vet allt, men att vi ändå har en väldigt bra uppfattning av vad som bör vara rimligt. Och det finns även seriös forskning inom SVO som UD med all sannolikhet använder. Och all forskning hitills säger en viss sak, sen kommer UD och påstår raka motsatsen... och visar absolut ingenting ens stödjer deras påståenden. Deras demo visar ingenting som man redan inte visste var möjligt, utan bara att det verkar vara snabbare än naiva implementationer.

Om du tror på det han påstår och deras teknik utifrån vad dom visat så är det du som borde ta en koll i spegeln och sluta se ner på andra. Om man inte har något som på något sätt styrker det man säger så är det faktiskt inte mer än rätt att man blir stämplad som skitsnackare, oavsett hur stort och fräckt det man pratar om är. Ord är bara ord.

Av Syranide
Skrivet av el_genius:

Detta demot ligger på en dvd. Dvd är dock ett föråldrat format. Även om blu-rayläsare inte är så vanligt just nu är de inte ens klara med sin motor än. Räkna med att det tar MINST 5 år innan det kommer ut någon större mängd spel med den här tekniken. Då kommer fler ha blu-ray.

Redan nu är det norm med skivor på 50GB (dual layer) och det finns skivor på 128GB att köpa. Panasonic har tom lyckats tillverka skivor på 400GB! Det är inte heller uteslutet att man som med tex the sims 2 använder 4 skivor. Då kan man utan att använda något annat än vanliga 50GB-skivor få plats med 200GB. Skivans storlek är alltså inget problem.

RAM då? RAM är otroligt billigt och den enda anledningen till att vi (oftast) inte har mer än 8GB är att det inte behövs just nu. Det skulle inte förvåna mig om vi kan köpa 32GB för 1000kr eller mindre om 5 år. Lägg till att vi inte behöver lägga lika mycket pengar på grafikkort och processorer som vi gör nu och 128GB behöver inte vara något konstigt i en entusiastrigg. Problem solved?

Då är det hårddiskens storlek kvar då. Fortfarande kan man tjäna lite på att inte behöva lägga så mycket på gpu och cpu. 10TB behöver inte vara något konstigt i en speldator om fem år. Kompressionen och platsen verkar inte vara något större problem längre.

OBS! DESSA SCENARION BYGGER PÅ ATT DET FINNS ETT BEHOV. DE UPPFYLLS FÖRMODLIGEN INTE FÖRRÄN DEN HÄR TEKNIKEN KOMMER UT I FORM AV SPEL. DET BEHÖVER INTE VARA OM FEM ÅR UTAN KAN VARA SENARE.

Det är dock viktigt att notera att grafikkort är precis lika viktiga med SVO som med vanliga trianglar. SVO påverkar bara hur geometrin renderas. Sen ska resultatet också shade:as, effekter, ljus, skuggor, etc ska läggas på det och det är det absolut dyraste idag, rendera trianglar är inte speciellt dyrt. Självklart kommer SVO hjälpa till eftersom det inte blir överlapp för shading. Mao, SVO kommer inte på något sätt att sakta ner utvecklingen om det slår igenom.

Däremot står jag personligen fortfarande fast vid att jag snarare tror att det finns utrymme för bättre tekniker för trianglar som kan leverera tillräcklig detaljrikedom, och då utan de dussin problem som SVO dras med. Sen är det fullt möjligt att SVO också har sin plats, men jag tror folk har stirrat sig blinda på det enda SVO är bra på just nu och glömt alla nackdelarna, och inte heller inser hur långt trianglar kommit på några år, och hur mycket bättre de kan bli givet så mycket mer prestanda och utrymme.

Och som recap, ett problem som kan bli otroligt svårt att lösa är minnesprestandan om det mycket riktigt är ett problem. Utöver det har vi det väldiskuterade problemet med utrymmet. Sen kan ett annat stort problem också uppstå i formen av att idag är det relativt billigt att rendera en scen flera gånger för ljus, skuggor och effekter. För SVO bör kostnaden fortfarande vara linjär i antalet "raytraces", dvs, det kan bli mycket svårare att få effekter att prestera bra utan att offra kvaliteten.

Vanligtvis inom 3D-grafik verkar det vara lite av en tumregel att när man kan visa ett fullfjädrat demo i realtid för en ny teknik, så är tekniken användbar i praktiken först några år efter det... och där anser jag inte att SVO är än. Jag känner mig oavsett säker på att alla riktiga "genombrott" kommer ske inom den oerhört seriösa forskningscommunityn och inte av Euclideon.

Av Syranide
Skrivet av dpom86:

1. "Assuming unique texturing", är ett felaktig antagande för dagens spel, man använder inte unika texturer till alla ytor, väldigt långt ifrån det.

-Syftar på dina påståenden om att man kan göra samma sak i dagens spel som UD gör. Jag har sagt att jag gör spel, jag vet att man återanvänder texturer snälla du.

2. Och det är stor skillnad på O(N) och O(N) i praktiken, för ena kan vara O(1N) och den andra kan vara O(1000N). Mao, nu är det påhittade siffror där, men som du bör förstå så är det stor skillnad på 1MB och 1GB per X. Även om båda klassas som O(N).

-La till en fin edit för din skull.

Återigen, missade du hela min poäng?
Oavsett vad du säger och referrerar till så finns det KONKRET FAKTA:

- HELA Crysis 2 ligger på en DVD, dvs, max 9.4GB. Då inklusive ljud och allt annat.
- UDs 24 block tar med all sannolikhet 8GB
- nVidias lilla kyrka ligger på 2.7GB

Hur kan man påstå att dagens SVO-algoritmer kan tävla med dagens trianglar när de faktiska utrymmeskraven tydligt presenteras ovan? Eller är praktisk tillämpning inte en förutsättning?

Ingen tvivlar på att SVO* funkar eller existerar, men det finns inget som helst som styrker att SVO är PRAKTISKT för spel idag, eller ens kommer vara inom de närmsta åren.

* Dvs, att man representerar hela världen med minst mm-stora voxlar.

PS. Min 7åriga kusin kan också hävda att han är spelutvecklare om han vill, det är inte relevant för diskussionen.

EDIT: För att förtydliga, jag skiter fullständigt hur värdelösa trianglar är om man försöker emulera SVO till 100% med dom. Man får ju jämföra trianglarnas nuvarande resultat, mot SVOs nuvarande resultat... och därefter jämföra alla för- och nackdelarna och se vad som är praktiskt. Håller du inte med om det?

EDIT: Även ditt 3e citat bygger på att all data är UNIK och inte återanvänds, genereras procedurellt eller sammansätts av flera lager. Det är inte så man använder trianglar idag, så det är meningslösa jämförelser.

Skickades från m.sweclockers.com

Av Syranide
Skrivet av dpom86:

Det är löjligt hur mycket du skiter i vad jag säger. Du tar ju bara inte in något av det. Det kommer INTE ta 16GB i minnet. Varför? Därför att i MINA antaganden som jag beskrev i DET EXEMPLET, så fanns det INGET OCTREE. FORTFARANDE! JAG HAR FORTFARANDE INTE RÄKNAT FEL! Du försöker FORTFARANDE PÅTVINGA DINA ANTAGANDEN PÅ MINA BERÄKNINGAR! SLUTA TRO ATT NÅGOT DU SÄGER KAN ÄNDRA DE ANTAGANDEN JAG HADE I MIN GAMLA POST!

...

Du har helt rätt. Trianglar är mycket bra på att representera en tegelvägg. Men om vi lämnar väggen och istället vill ha en buske med löv? Eller gräs på marken? Plötsligt inte lika bra. Olika verktyg -> olika bra på olika saker.

Framtiden får väll helt enkelt utröna hur det blir. Hej-hop.

Det går inte ens svara på dina kommentarer separat, och du har ingen anledning att vara arg eller upprörd. Du får väldigt gärna ta mina "fakta" och motbevisa inom ramarna av nutiden, om det är så att jag gjort fel... att ha personliga åsikter, tycka eller spekulera leder ingenstans.

...

Jag tog fram ett räkneexempel som med all sannolikhet bekräftar vad vi vet om datamängden i UD, och det approximerar även vad dagens kända SVO-algoritmer bör vara kapabla till. Dvs, att de 24 blocken UD visar faktiskt bör ta 8GB utrymme, men om det får dig att må bättre så tar den lilla kyrkan nVidia visar i sitt demo 2.7GB. FAKTA.

Ditt påstående om att man kan representera 1000m^2 med 1GB är uppenbarligen falskt om du inte kan styrka det på något sätt. Om det inte finns något demo, teknik, algoritm eller teori som styrker din siffra så är det bara spekulationer.

Och om vi återgår till verkligheten, HELA "Crysis 2" ligger på en DVD, så vi kan anta att det tar 9.4GB, med ljud och allt annat. Jämför det med UD på 8GB och nVidia på 2.7GB... du kan väl inte påstå att det får voxlar verkar praktiska?

Om ingen presenterar nya algoritmer för voxlar så är ovan fakta det som man måste utgå ifrån. Annars kan man hitta på precis vad som helst och styrka vilket argument som helst. Återigen, du får gärna motbevisa mina påståenden om du har konkret fakta.

Skickades från m.sweclockers.com

Av Syranide
Skrivet av dpom86:

Jag ville få det säkert bekräftat inan jag sa något, men here goes:

Voxels are generally assumed to consume huge amounts of memory.
This is true if the data is truly volumetric 3D such as an MRI
scan, but if we only encode surfaces, the memory usage drops to
O(N2) where N is the resolution along one spatial dimension. The
resolution could be defined, for example, as the maximum number
of distinguishable features per unit length. In terms of complexity,
this is the same as with triangles, where the total surface area is
also the factor that most affects memory usage, assuming unique
texturing.

Lite lustigt att du avfärdar dagens teknik med trianglar som opraktiskt. Känns som om det blev ett väldigt stort hål i ditt argument.

Två väldigt viktiga punkter som du missat eller missförstått:

1. "Assuming unique texturing", är ett felaktig antagande för dagens spel, man använder inte unika texturer till alla ytor, väldigt långt ifrån det.

2. Och det är stor skillnad på O(N) och O(N) i praktiken, för ena kan vara O(1N) och den andra kan vara O(1000N). Mao, nu är det påhittade siffror där, men som du bör förstå så är det stor skillnad på 1MB och 1GB per X. Även om båda klassas som O(N).

Så nej, det är absolut inget fel på mitt argument... det bekräftas "oavsett" av det simpla faktum att de 24 modeller som UD visar i sitt demo med största sannolikhet tar 8GB. Och du skulle kunna visa en "rimlig" rekonstruktion med trianglar på en bråkdel av det (är hela Crysis 2 ens på 8GB?).

EDIT: Dvs, det spelar ingen roll hur mycket referenser och citat ni drar fram, UD och andra techdemon visar hur långt tekniken har kommit och alla lider av exakt samma problem, det blir ohanterbara mängder data.

Av Syranide
Skrivet av el_genius:

Grejen är ju att de gör det på EN kärna i en laptopprocessor. Då har de HELA gpuns beräkningskraft kvar till dina effekter.

Absolut, fast det är också VÄLDIGT suspekt... för att skala upp tekniken till "oändligt" antal kärnor ska vara trivialt (du delar bara upp skärmen i tiles och renderar dom i varsin tråd, eller något liknande)... mao, dom skulle lätt kunna implementera det på en dag.

Eftersom dom med all sannolikhet använder alla 8GB och att SVOs borde vara ohyggligt svåra att få "cache coherent". Så gissar jag att den riktiga anledningen till att dom inte skalat upp det är för att minnet och cacharna helt enkelt inte orkar med, det är inte CPUn som är begränsningen. Hela algoritmen bygger på non-stop random access i minnet, och dagens hårdvara är inte byggd för det.

Sen får man inte heller glömma, att även om dom kan skala upp det till fler CPUer så hjälper det inte så mycket, då dagens spel som förlitar sig helt på GPUn för grafik också använder det mesta av CPUn för ljud, gameplay, AI och liknande. Så att äta upp all CPU skulle förvisso höja prestandan i ett demo, men skulle inte vara så användbart i praktiken.

(Och oavsett, det absolut största problemet nu är inte prestandan, utan att det kräver så ohyggligt mycket minne och utrymme för så väldigt lite)

Av Syranide
Skrivet av dpom86:

Citera på du bara. Citera lite mer så blir det t.o.m. rätt. Du plockar bara en mening som citat ur ett sammanhang. Sammanhanget är komprimeringen som du inte tar med. Faktum är att du räknar ut antalet punkter på 1000m^2 och slänger på enheten GB på det. Var påstår du att jag skrivit 1punkt=1byte någonstans? Däri ligger det du klantat dig med om du undrade.

Och jag köper fortfarande inte att det skulle vara ett problem att det "bara" är 33x33m. Hur många gånger ska vi tjata om det egentligen?

Ok, jag missade att det handlade om komprimering. Men du har fortfarande inte visat att det finns några typer av realtidskomprimeringalgortimer som är MINST 1:16 (för annars kommer det fortfarande ta MINST 16GB utrymme i minnet), och där man dessutom kan beskriva en voxel med ENABRT 1 byte. Och där man dessutom inte har någon overhad från octreet. Plus att du antar att hela världen är spikrak och platt. Du har gjort ett otroligt komplicerat problem (en värld) till ett trivialt exempel (ett platt plan).

Hur kan det inte vara ett problem med att 33x33m tar MINST 1GB utrymme (med din icke existerande realtidskomprimering, och utan allt det jag nämner ovan)? 33x33m är ju inte ens lika stort som en counter-strike karta! Och enligt mina beräkningar, så om man inte kan komprimerar datan men istället använder en palett (från 12 bytes till 1 byte), så tar 22m^2 av rimlig data 8GB.

Och det spelar ingen roll vad du påstår om komprimering, det finns förnärvarande inga algoritmer som jag känner till som kan åstadkomma hög komprimeringsgrad och dekomprimering av SVO i realtid.

Skrivet av dpom86:

"...spelar ingen roll ... mängden data du får ut är ändå OFANTLIGT STOR relativt vad som används idag och vad som praktiskt kan distribueras."
Återigen för att vi inte använder samma antaganden så kommer du fram till ditt "OFANTLIGT STOR".
Jag kommer inte fram till samma sak för jag har något annorlunda antaganden ...fortfarande!
Det är typ det jag försöker säga hela tiden; sammanfattning av våran osämja: Jag tror inte datan behöver bli så stor. Antaganden + siffror -> du svarar: Om man räknar såhär så blir det JÄTTE STORT! -> jag svarar: Men jag räknar inte så. Det blir stort men jag tror inte det behöver bli jättestort -> du svarar: Men om man använder mina antaganden så blir det fortfarande JÄTTE STORT! Ser du inte det? Kolla siffror! -> Jag svarar: Men dina räkningar bygger fortfarande bara på dina egna antaganden och inte på mina. Inte jättestort! -> Jo OFANTLIGT! -> Nääh! -> Joo! -> Nääh...

Ja, och läs ovan, jag tänker anse att 1 liter vatten visst får plats på 1mm^3, det är löjligt, det finns ingenting som stödjer att det skulle vara möjligt, och tills någon bevisar eller lägger fram en teori om hur det skulle gå till, så kan jag inte heller rimligtvis anta att det någonsin kommer vara rimligt (för även om det fysiskt möjligt så är lösningen antagligen att hälla det i ett svart hål).

Skrivet av dpom86:

"Praktiskt som i att, att en kvadratkilometer yta skulle kräva en stor del av bluray-skiva... det är inte praktiskt."
Om du hade ett spel med så bra grafik som säljs några år, säg 4år, in i framtiden (Även om UD motorn skulle bli klar säg nästa år tar det tid att göra ett spel också!) som kräver "en stor del av en bluray-skiva", så svarar jag: Vad är det som är konstigt med det? Det är ungefär som att säga "Tänk om filmer i framtiden tog upp en hel bluray skiva!" Duh! Varför inte spel på Bluray? Vi snackar flera år in i framtiden dessutom.

Nu skrev jag tom fel, jag menade faktiskt 1000m^2 vilket inte ens är i närheten av 1km^2. Vilket är löjligt lite, som sagt va, det är inte ens i närheten av en fotbollsplan (ett hyreshus eller vad du nu vill jämföra med, och det krävs mer variation än bara en vägg och ett fönster).

Och återigen, om du utgår från att vi kan hitta sätt att låta UD använda 100GB utrymme, fundera då även på vad man kan göra med trianglar om vi ger dom 100GB utrymme. Väldigt mycker mer skulle jag gissa.

Det är meningslöst att argumentera med "vadå långsamt? långsamt idag var snabbt för 100 årsedan! så därav är ingenting snabbt eller långsamt, och min bil är därför lika snabb som din.".

Skrivet av dpom86:

"du har bra tankar, men med all sannolikhet faller det i praktiken"
Så kan det mycket väl vara. Jag försöker säga ett det inte är så löjligt orimligt som många säger. Jag argumenterar för att det skulle ligga inom det teoretiskt möjliga. Teorier funkar inte alltid i praktiken tyvärr.

Och här håller jag inte med dig det minsta, att argumentera över teoritisk framtida utveckling är löjligt. Då antar jag också att vi hittar en algoritm som mappar trianglar till ett octree på O(1) och därmed blir trianglar bättre än SVO på alla sätt... och så räknar jag med att vi kan komprimera varje triangel till 1 byte. Alla problem lösta, SVO är meningslöst... men det kanske inte funkar i praktiken!

Skrivet av dpom86:

"Och för att minska mängden utrymme så skulle det krävas ett gräsligt arbete med att handplacera objekt."
Det gör man väll ändå? Eller vad? En artist som gör 10 olika träd måste fortfarande göra allt jobb. Han måste ju göra allt som ska vara olikt på de 10träden , det ploppar ju inte dit av ren magi. Vad skulle bli extra jobb menar du?

Jag anser att situationen i UD skulle vara värre i praktiken, men eftersom det inte finns några verktyg idagsläget så är det självklart svårt att ge några konkreta exempel. Min poäng var iaf att UD marknadsförs som "skanna en palm", så har du en palm i spelet, om du istället måste klippa upp den i löv och stomme, och sedan kopiera och placera dessa förhand så har mycket av poängen och unikheten försvunnit.

Skrivet av dpom86:

"Sen underskattar du alla småeffekter som används idag, en tegelvägg är inte bara en repeterad tegeltextur, utan det ligger säkerligen minst en textur ovan på den som skapar variation över hela väggen"
Jag vet. Jag gör spel. Jag trodde bara inte jag behövde gå in så djupt. Du kan ha små voxelbitar som du lägger på teglet för att ge det den där variationen. Och du kan ju ha ett par olika grundbitar av tegel, inte bara en. Det var väll inte så svårt att komma på den lösningen, det kunde du väll kommit fram till själv tycker jag. Det kanske inte blir lika bra variation som dagens lösningar, men det blir ju bättre på andra sätt istället. Måste det ha alla fördelar från dagens teknik verkligen??

Vadå man kan "ha små voxelbitar som du lägger på teglet"? Hur sjutton skulle det gå till, ytterligare en massa SVO-objekt med "kludd" som man överlappar? Och visst man kan ha flera variationer av tegel. Men det jag menar är:

http://borralm.files.wordpress.com/2010/10/brick_wall.jpg
Det skulle kunna vara en tegelvägg i ett spel, först har man en tegeltextur som upprepas, sen ovanpå det har man lagt en till textur som ger till synes oändlig färgvariation. Dvs, om du skulle gjort det i ett spel så skulle ingen tegelsten på väggen se ut exakt som någon annan, även om grundtexturen upprepas många gånger. Det går dra det här mycket längre, man kan även använda displacement mapping och tessellering, och så har man något som är väldigt likt UD! Du skulle tom kunna sampla tegelstenar i realtid på GPUer för att göra hela väggen unik... och det skulle återigen krävs mindre utrymme.

Och jag ser verkligen inte dragningskraften med detaljrikedomen som visas i UD, trianglar kan emulera det mesta av detaljrikedomen, redan idag om man slipper tänka på shading och allt annat som måste in i ett spel (t.ex. som att folk inte har obegränsat med RAM!). Men som sagt va, det finns ens praktisk sida i det hela också, och den är inte än på några år, och om några år så har nog trianglar tagit ännu några steg längre frammåt.

Skrivet av dpom86:

"Och sen kommer vi tillbaka till minnesproblemet, allting du nämnde ovan, kan man även göra med trianglar och texturer (och det gör dom!)... vilket betyder att trianglar och texturer kommer alltid vara mycket mer utrymmeseffektivt."
Fel. Det kan du citera Carmack på, att när du drar upp detaljrikedomen till en viss nivå så blir trianglar och texturer mer utrymmeskrävande.

Ja, det är väl självklart det finns en brytpunkt där trianglar och texturer bli mer ineffektiva, dvs, troligtvis då en triangel i medel motsvarar ~4-8 voxlar kanske. Och det finns absolut ingen anledning att någonsin göra på det sättet. För på den nivån funkar tessellering, procedurell genering och displacement mapping bättre. Dvs, det finns ingen anledning att någonsin lagra så små trianglar.

Skrivet av dpom86:

"Vi kan redan idag använda högupplösta displacementmaps (för väggar, mark, etc) och liknande tekniker och det skulle emulera mycket av det som UD stoltserar med... men man gör inte det för prestandan och utrymmet spenderas bättre på annat håll, som atmosfäriska effekter, ljussättning, skuggor, dimma, etc."
Visst, men sen är det ju lite skillnad i hur mycket prestanda som krävs för de två också eller? Det du föreslår skulle få en modern dator att kräla på sina knän om man försökte göra det på sättet du föreslår. "Går att göra med dagens teknik" är ett högst teoretiskt påstående om du inte är beredd att acceptera <1fps. Det går dom ju igenom i filmen t.o.m. Jag har hyfsad koll på vad man kan göra och precis som dom säger i filmen så kan man bara "putta upp" pixlar, du kan inte faktiskt skapa håligheter under utstickande grejer. För det krävs riktig geometri. Dessutom stretchas texturerna ut där du stretchar i polygonens yta så det ser också sämre ut desto mer du stretchar. Och återigen kan jag citera Carmack om du vill där han säger att tekniken inte är smidig, mycket jobb och krångel och du kan ändå inte få allt du vill ha. (...utan måste ha riktig geometri för att få det som du vill) Det är i samma veva som han pratar om att han vill att man ska kunna skulptera världen som lera. Vilket han poängterar att du inte kan med dessa tekniker för det finns flera saker du inte kan fixa med det.

Du kan kolla Unigen Heaven som du säkerligen känner till, det kör i full FPS på modern hårdvara, och visst, det har inte riktigt samma nivå av detaljer som UD, men UD går inte ens att använda i realtid i spel idag! Och verkligen, hur mycket mer detaljer än vad som visas i Unigen behövs i praktiken?

Skrivet av dpom86:

"Och nej, jag säger inte 500m^2 på 8GB"
Eh, jo! Du säger det OCH 22block. På samma sätt som jag säger 100m^2. Jag har aldrig sagt att det motsvarar 100m^2 av spelvärld eller nått sånt. Jag går bara aldrig så långt som att försöka approximera mina ytor till block som du gör. Jag jämför dina äpplen med mina äpplen. Sedan att du har gått vidare och gjort äpplesaft av dina betyder inte att jag inte kan jämföra mina äpplen med de äpplen du använde för att göra saften.

Nej det sa jag faktiskt inte, 500m^2 på 8GB var innan jag gjorde klart alla beräkningarna i kommentaren (där jag in octree overhead, etc). Och därefter har jag ingen aning om vad du snackar om.

Skrivet av dpom86:

"Min poäng var att UD har med all sannolikhet inte alls kommit på någon revolutionerande teknik och att minnesutrymmet absolut är ett problem."
Tja det är fullt möjligt men gör inte mina teorier omöjliga bara för att dina är mer sannolika.

Eh va?
Självklart är dina teorier inte omöjliga, men fram tills att någon ens lägger fram några belägg för att dom funkar så är det totalt meningslöst att anta att dom är sanna. Som sagt va, jag antar att vi hittar en log(N) komprimeringsalgoritm i framtiden, för det verkar lösa mina problem väldigt väl.

Skrivet av dpom86:

"Allting som är O(N^2) är i praktiken väldigt sällan praktiskt, det gäller även kvadratmeter med voxlar. Dvs, om inte ALLT i hela världen kan representeras som enormt återanvända instanser av voxelobjekt, så kommer utrymmet öka O(N^2) med storleken. Det är inte praktiskt. Och voxlar kommer alltid att kräva mer minne än trianglar och texturer, tills trianglarna bli små som voxlar."
Återigen ger du mig en lektion i hur matten skulle bli om vi går på dina antaganden istället för mina. Du avslutar vackert med att säga emot dig själv då du tidigare i texten säger att voxlar alltid kommer ta mer plats. "Alltid mycket mer effektivt" har blivit "tills" i denna meningen - det finns t.o.m. ett "mycket" med för att verkligen understryka din motsägelse.

Voxlar är mer eller mindre den yttersta generaliseringen av en värld (atomer), mao, så för att SVO ska vara effektivt så måste voxlar vara den absolut bästa approximeringen av ett problem. Och en voxel är inte det, fördelen med voxlar är att dom är "atomer", så man kan approximera de flesta objekt väldigt väl, men inte utrymmeseffektivt. Trianglar är en mindre generell approximering som bygger på observation att många ytor är platta eller har en platt utgångspunkt som sedan kan tesselleras för att skapa variation.

Dvs, varför vill vi representera en tegelväg som individuella voxlar, när man kan representera den som en enda stor quad som tesselleras och displacement-mappas och på så sätt kan varje tegelsten i väggen bli tillsynes helt unik och samtidigt vara ungefär lika detaljerad som SVO-alternativet, samtidigt som man kan göra den oändligt stor. Och allt som krävs är, 1 quad, 1-4 lagom upplösta texturer och några shaders.

Jag vet inte riktigt vart diskussionen tagit vägen, men UD är inte praktiskt idag (prestanda, utrymme, etc), och det är säkerligen flera år tills det ens finns hopp om att det blir praktiskt. Och om det blir praktiskt då bygger på att vi väldigt effektivt löst komprimering, animering, etc OCH dessutom utvecklat bra verktyg för att jobba med det. Vilket är väldigt stora problem. Notera att jag säger ingenting om SVO generellt, för det finns säkerligen praktiska användningsområden för SVO redan idag, men UD har en väldigt specifik fokus.

Och det går inte argumentera förbi att utrymme är ett problem för trianglar och texturer även idag, voxlar kan omöjligt vara mer utrymmeseffektiva för samma kvalitet för praktiska ändåmål i dagsläget.

Sen tycker jag återigen att det blivit väldig hysteri kring detaljerna i UD, som sagt va, moderna grafikkort klarar av pressa ut liknande grafik i 60 FPS om dom också skiter i shading och alla andra effekter. Men som sagt va, spelutvecklare har som tur va insett att detaljstudera stenar och grässtrån är långt ifrån det viktigaste man gör i spel... utan att helhetsintrycket är det viktiga, animering, atmosfär, ljussättning, skuggor, variation, dimma, effekter, etc. Och det enda SVOer visat för sig hitills i någorlunda realtid är en ytterst repeterad, platt och statisk och solid värld... men väldigt detaljerad.

Skickades från m.sweclockers.com

Av Syranide
Skrivet av dpom86:

Jag har inte räknat fel någonstans, jag gör bara inte samma antaganden som dig.

Jag citerar:

"Med 1GB kan man beskriva 1048.6kvadratmeter yta med en punktupplösning på 16punkter/kvadratmillimeter!"

Så förklara gärna, för om jag inte är helt snurrig så tar dina 1048 m^2 (och 16 punkter per mm^2) ... 1048.6 * (1000^2 * 16) = 15.6 GB (det är sent och jag är trött så rätta mig gärna om jag klantat mig)

Och då har vi inte ens räknat med att det finns flera nivåer i ett octree, att världen inte enbart är platt och att en voxel kanske bör representeras som mer än 1 byte.

Och sen är det väldigt viktigt att inse att 1048m^2 i praktiken är en yta på 33*33m... det är inte ens i närheten av en fotbollsplan!

Skrivet av dpom86:

1:100 må vara sällsynt. Men att du kan få 1:300 i film är ett faktum.

Jag tog en realtidskompression på 1:3 som exempel, och återigen så försöker du påstå att det handlar om "arbiträr voxeldata" ungefär som att 1. Du inte accepterar lossy-ness och 2. Du vägrar inse att datan är högst strukturerad och approximerbar i de fall vi faktiskt diskuterar. Det är inte som en zip-fil med "arbiträr" data. Att det är texturer är ju inte alls intressant eftersom du knuffar in det ovälkomna ordet arbiträr i ditt påstående. Om det är arbiträrt så spelar det mindre roll att det är voxlar också för den delen.

Jag accepterar lossyness, jag säger ju tom att dagens grafikkort har 1:4 och 1:6, väldigt lossy. Men som jag visade innan med ett räkneexempel, det spelar ingen roll om du ens hittar en realtidsalgoritm som är 1:100, mängden data du får ut är ändå OFANTLIGT STOR relativt vad som används idag och vad som praktiskt kan distribueras.

Skrivet av dpom86:

Vad menar du med att det inte är praktiskt? Du erbjuder inte äns ett resonemang. Mitt resonemang är enkelt: Flera av de punkter du ser på skärmen kan komma från samma uppsättning data. Precis som du inte har en unik textur för varje meter av husvägg i ditt exempel.

Praktiskt som i att, att en kvadratkilometer yta skulle kräva en stor del av bluray-skiva... det är inte praktiskt. Precis som att streama RAW 1080p film över nätet till konsumenter inte heller är praktiskt.

Skrivet av dpom86:

Som sagt, "världen" och "unik yta" har ingen direkt jämförelse här. Du behöver mycket mer av världen säger du. En trädkrona kan bestå av några fåtal upprepade löv säger jag. Ser tydligt att det finns en begränsning i hur mycket unik information du kan presentera samtidigt, men inget problem med mitt resonemang. Spelutvevckling genom alla tider har handlat om att ta det man har och göra det bästa av det. Att säga att ett hus är en unik uppsättning data är lika dumt som att säga att ett träd är en unik uppsättning data. För väggar behöver du bara små-små bitar, ungefär som marken i UD, eller en tegel-kloss kan ju vara en bit t.ex. om väggen är av tegel. Ett fönsterbleck kan vara en bit, en ruta av glas en bit osv. Genom att blanda dessa bitar så skulle du kunna åstadkomma liknande variation med mycket lite "unik" data precis som många av husväggarna i ditt exempel använder samma textur, många av dörrarna använder samma textur, dörr-handtagen använder samma textur osv...

Självklart, du har bra tankar, men med all sannolikhet faller det i praktiken. För vad jag vet så funkar SVO just nu inge vidare med roterade objekt. Så alla objekt skulle behöva vara vridna i 90-graders vinklar (detta kanske däremot går att lösa ganska effektivt, men vad jag vet har ingen visat att det går att göra effektivt än). Ganska fyrkantig värld det skulle bli, isf. Och då utgår du också ifrån att det ens går att komponera ihop flera lager av SVO-objekt effektivt... något som bör vara ett väldigt stort problem i praktiken eftersom du med all sannolikhet behöver traversera samtliga SVO-objekt inom ett område (nu blev kostnaden beroende av geometrins komplexitet igen = dåligt), vilket också med all sannolikhet är varför UD inte gör det utan håller sig till en fast grid... dom slipper överlapp.

Och då kommer man även ifrån den stora fördelen med UD, att du kan göra din oändligt komplicerade modell, och den kommer prestera precis lika bra... visst, den kommer prestera precis lika bra men den kommer istället sluka enorma mängder utrymme. Och för att minska mängden utrymme så skulle det krävas ett gräsligt arbete med att handplacera objekt (vilket då troligtvis kanske förstör prestandan istället). Sen underskattar du alla småeffekter som används idag, en tegelvägg är inte bara en repeterad tegeltextur, utan det ligger säkerligen minst en textur ovan på den som skapar variation över hela väggen. Och samma gäller för allt annat också.

Och sen kommer vi tillbaka till minnesproblemet, allting du nämnde ovan, kan man även göra med trianglar och texturer (och det gör dom!)... vilket betyder att trianglar och texturer alltid kommer vara mycket mer utrymmeseffektivt. Och spelutvecklare har redan utrymmesproblem idag med mer eller mindre alla spel. All låta varje objekt ta upp avsevärt mer utrymme kommer inte lösa det. Och när man får mer utrymme kan man även öka kvaliteten på trianglarna och texturerna.

Vi kan redan idag använda högupplösta displacementmaps (för väggar, mark, etc) och liknande tekniker och det skulle emulera mycket av det som UD stoltserar med... men man gör inte det för prestandan och utrymmet (och tiden!) spenderas bättre på annat håll, som atmosfäriska effekter, ljussättning, skuggor, dimma, etc.

Skrivet av dpom86:

Ok då använder dom väll nått SVO aktigt i så fall.

Vad får dig att tro att John inte använder det? Det är uppenbart att du inte läste länken jag skickade med. Jag skrev att han hoppas få in det i Id tech6 motorn. Den är inte ute än. Faktum är att det kommande spelet RAGE körs på Id tech5 motorn! Kan ju inte garantera att han fortfarande har det kvar som en del i den kommande-kommande motorn för jag kan ju inte fråga, men om du faktiskt har något underlag eller fakta som stödjer att han skulle ha övergett det som du tycks tro så får du gärna dela med dig av den källan.

John Carmack har också sagt att Idtech 6 inte kommer att komma på många år. Och jag sa inte att han övergivit det, utan att han uppenbarligen inte använder det just nu, och att om han kommer använda det, så har jag väldigt svårt att se att han isf skulle gå rätt i UDs fotspår.

Skrivet av dpom86:

Du avslutar onekligen med en fin uträkning, och den är intressant. Du säger ~500m^2 på 8GB. Jag säger absolut inte emot dig. Jag poängterade från början att allt är spekulation och har breda marginaler. Dina beräkningar invaliderar inte några av mina, och jag har aldrig sagt att dina beräkningar är fel... Jag håller bara inte med dig om att resultatet man kommer fram till är ett problem. Jag håller inte med om flera saker faktiskt, men jag har inte sagt att du räknat fel.

[/quote]

Och nej, jag säger inte 500m^2 på 8GB, jag sa 22 block på 8GB om du läser hela kommentaren. Dvs, 22 block likt dom som UD använder, och UD använder 24 unika block (och har 8GB minne i sin dator!). Min poäng var att UD har med all sannolikhet inte alls kommit på någon revolutionerande teknik och att minnesutrymmet absolut är ett problem. För dom visar mer eller mindre EXAKT så många block som jag räknade fram att dom bör kunna visa. Och hur intressant är deras värld som isf tar 8GB utrymme?

Allting som är O(N^2) är i praktiken väldigt sällan praktiskt, det gäller även kvadratmeter med voxlar. Dvs, om inte ALLT i hela världen kan representeras som enormt återanvända instanser av voxelobjekt, så kommer utrymmet öka O(N^2) med storleken. Det är inte praktiskt. Och voxlar kommer alltid att kräva mer minne än trianglar och texturer, tills trianglarna bli små som voxlar. Trianglar har inte denna stenhårda begränsning.

Skrivet av dpom86:

Slutligen tycker jag det är ganska drygt av dig att säga att jag hade fel och att du rättade till mina fel när ingetdera av de två påståendena är sanna! Du presenterade din egen ide och kan inte backa upp att något jag sagt skulle vara fel. Alla mina uträkningar är korrekta för de antaganden som jag tydligt presenterar. Att få ett annat resultat med andra antaganden är inte precis en nyhet.

Om jag inte gjort fel i min beräkning ovan, så har du visst gjort en felberäkning, om jag pga trötthet själv räknat fel istället så ber jag om ursäkt.

Och min poäng var att du pratar om t.ex hur olika komprimeringsalgoritmer visst kan användas för att komprimera voxlar utan att visa på att det ens finns några som helst belägg för dom går att anpassa till voxlar på det sättet du beskriver.

Skrivet av dpom86:

Edit:
Det är precis sådant här jag pratar om:

Du ignorerar ju praktiskt taget allt jag sagt. Hur många unika punkter behöver du för att beskriva marken? Med gräs osv på så kan vi väll dra till med något bara, säg 800000. För det så får vi kanske lite gruskorn, lite grästuvor(som i sig kan bestå av upprepningar av en mindre uppsättning grässtrån), några löv och lite stenar. Med denna datan har vi råmaterialet till att dekorera hur mycket terräng (mark) som helst. 1m^2 eller 1000000m^2 spelar ju ingen roll! Vi snackar fortfarande om att upprepa samma data för ett i sammanhanget billigt overhead. Och om vi har ~8000x8000 till vårt förfogande, ja då har vi använt 100st av 8000 rader och har "bara" 7900 rader kvar till resten av världen. Stammen på ett träd: Antagligen upprepningar av ett fåtal bitar bark. Bladen - redan gått igenom. Husen - redan gått igenom. Jag ser helt enkelt inte dina enorma problem som du påstår finns här med objekt som tar upp enorma mängder data. Enligt mig, och det har jag sagt hela tiden, så borde detta räcka för att åstadkomma en hel del om man bara är lite smart i sina lösningar.

Jag referrar till ovan, din tanke är väldigt bra i teorin, den löser minnesproblemet (däremot blir inte grafikerna så glada)... men istället förstör den hela poängen med UD om ingen hittar en fantastisk algoritm som kan söka igenom överlappande och arbiträrt placerade och roterade SVO-objekt på O(1) eller väldigt väldigt billigt.

Och tills någon tagit fram en sådan algoritm så kan vi inte heller anta att någon kommer att kunna göra det. Om någon inte kan presentera en vetenskaplig teori för hur det isf skulle funka. Återigen, rätta mig gärna om jag har fel.

Av Syranide
Skrivet av dpom86:

Att det inte skulle vara på något sätt applicerbart var det dummaste jag hört. Det är inte mitt fel om inte du kan göra algoritmer.
Det har aldrig slagit dig att man kan ha "key-points" precis som man har key-frames? Det har aldrig slagit dig att om du har key-points så blir lossy beskrivning av kringliggande punkter högst acceptabelt? Det har aldrig slagit dig att du troligtvis inte behöver mer än två koordinater för att beskriva "b"-punkter? Det har aldrig slagit dig att man kan dra nytta av att en yta oftast böjer sig långsamt, speciellt om avståndet mellan varje punkt är ~0.25mm? Det har aldrig slagit dig att en färgkomprimering liknande den man använder för film är högst troligt användbar då färgerna troligtvis inte varierar så mycket på skalan 0.25mm? Ditt snack om datakomprimering tycks ju bygga på att du inte vill ha det lossy, men vem har sagt at UD inte är lossy? Och personligen tycker jag video-komprimering, som ju om du stackar frames'en på hög är som att beskriva färgvolymer i 3d, är mycket applicerbart här!

För det första, ta och tagga ner lite. Du räknade fel, jag rättade till det utan att klaga på dig och lade fram fakta. Och jag känner inte för att gå till personangrepp men du har uppenbarligen ingen djup kunskap inom algoritmer om det är ditt svar... vad du personligen tycker bryr sig inte en algoritm om.

En komprimeringsfaktor på 1:100 lär sällan vara något man träffar på i verkligheten, inte ens med lätt komprimerbar data och som går att packa upp snabbt, och om den är rimligt lossy. Oavsett om du nu hittar en algoritm som är 1:100 för voxlar så kommer du aldrig någonsin kunna köra det i realtid (om den inte är väldigt lossy). Och som sagt va, inte ens 1:1000 hjälper situationen avsevärt.

För att du ska förstå sammanhanget så för att få 1:100 i JPEG för naturbilder så är det motsvarigheten till ca 4% kvalitet i JPEG, mao, bilden kommer ut som skräp... och då är det mer eller mindre den bästa komprimeringsteknik vi känner till för naturbilder! .. plus att det är inte ens i närheten av realtid!

S3TC komprimering som man använder för komprimering av texturer som används i realtid idag för grafikkort är 1:4 och 1:6, och med påtagligt försämrad kvalitet.

Skrivet av dpom86:

Och att påstå att ~30m^2 inte är imponerande är ju löjligt.
Vi pratar verkligen inte om en 30m^2 stor spelvärld. Vi pratar om 30m^2 med unik information.
Tänk på texturer i dagens spel. En textur på 8000x8000 eller mer är extremt stort. Mer än vad som behövs för att beskriva hur någon yta ska se ut i dagens polygon spel. Så det känns som du inte riktigt har tänkt på att det är ungefär samma information som i dagens spel. Samma mängd information för att beskriva det som du har på en skärm. Dagens spel laddar och tar bort resurser allt eftersom dom behövs för renderingen på skärmen. Varför skulle vi inte kunna göra det i detta fallet om jag får fråga? Hur mycket textur-data tror du egentligen att det finns på din skärm vid någon given tidpunkt i ett spel? Som sagt, vi snackar bara om hur mycket information som ligger inladdad, du kan ju ha flera gigabyte mer som du inte behöver just precis då.

30m^2 är inte imponerande, det är lika imponerande som vilken annan siffra som helst. Det är inte PRAKTISKT att använda i ett spel, inte överhuvudtaget, och beroende på vad du vill ha för kvalitet kan det vara 3m^2 eller 200m^2, oavsett inte PRAKTISKT.

Och oavsett, det spelar ingen roll att skärmen bara har ~1.000.000 punkter att rita, du behöver MYCKET mer av världen inladdad hela tiden, och låt oss inte ens prata om mardrömmen att streama octrees.

I ett modernt spel kan du ofta representera kilometervis med hus, terräng och effekter med 1GB okomprimerad data. Och om du inte tar fram förstoringsglaset så lär du ha svårt att få känslan att världen är repeterad.

Skrivet av dpom86:

Slutligen är det väll bara en hypotes att sparse-octrees är det som används även om det är troligt. Men om det är det som används så sa ju faktiskt John Carmack redan våren 2008 att han funderade på att ha en sådan teknik med "unlimited geometry" i Id tech6 motorn:
"What I really want to get out of the ray tracing is this infinite geometry which is more driven by the data structure that you have to use ray tracing to access, rather than the fact that you’re bouncing these multiple rays around. I could do something next generation with this and I hope that it pans out that way" //John
"This new data model and algorithm being worked on for id Tech 6 would allow, according to John, nearly infinite amounts of geometric detail in the world without the problems seen with tessellation engines or trying to store gigabytes of data locally." // http://www.pcper.com/reviews/Graphics-Cards/John-Carmack-id-T...
...min poäng är att om John trodde att det skulle gå att få hanterbara datamängder, och ett av hans uttalade önskemål var att artister bara skulle kunna gröpa ur hela världen som lera (jag vill dock poängtera att han aldrig uttryckligen sagt att det är skulle bli möjligt med denna metoden), så har jag all anledning att tro att det skulle vara åtminstone hyffsat genomförbart. Och om han jobbade på det till Id tech6 motorn så har jag all anledning att tro att det är lite mer än bara en-rolig-teori-att-leka-med-i-tanken.

Det är SVOs dom använder, dom har mer eller mindre erkänt det själva och allt dom pratar om tyder på det. Och resultatet dom visar är mer eller mindre identiskt med det alla andra presenterar för SVO.

Det spelar ingen roll om John Carmack själv har utforskat det SVO och alla de typer, om han inte använder det så betyder det att det inte höll måttet av flera olika anledningar. Och även om han nu bestämmer sig för att använda det, så känner jag mig säker på att det inte är på mm-voxel-nivå (fast där möjligtvis materialparameterar genererar fler nivåer). Utan handlar nog snarare om en naturlig vidareutveckling av megatextures över voxelbaserad terräng eller något liknande.

Sen angående UD så vill jag lämna dig med ett sista räkneexempel.

8 GB = 8 * 1024 * 1024 * 1024 = 8589934592
sqrt(8589934592) = 92681 (^2)
92681 / 4 / 1000 = 23 m^2 (4an från 4x4x4 = 64 voxlar per kubikmillimeter)

Det blir 529st 1m^2 block (23 * 23). Så, om vi antar att det går åt ~12 gånger (6 sidor, plus lite extra för kurviga ytor) så många voxlar när vi gör våra 2D-block till 3D, så blir det ca ~44 st block (529 / 12), sen får vi inte glömma overhead i octrees så vi delar på 2 igen som en gissning, så det blir ~22 st block (44 / 2). Viktigt att notera är att jag nu har räknat med att varje voxel kan representeras som en enda byte (vilket inte ens är orimligt då dom faktiskt skulle kunna använda en färgpalett, posiiton behöver inte beskrivas).

Notera att jag då använder de rimligaste värdena jag kan komma på, 8GB har han i sin laptop, det kan vara upp till 64 voxlar per kubikmillimeter, dvs 4x4x4. Och jag uppskattar ett block till att ha en bas på 1m^2. Och vi antar att dom lyckats komprimera varje voxel till 1 byte. Och vips, så har vi 22 st block, och i videon säger dom att dom har 24.

Nej då det är säkert bara en slump att min uträkning ens hamnade i närheten av deras faktiska antal.

Jag diskuterar gärna, men presentera fakta eller något som du kan backa up isf.

Skickades från m.sweclockers.com

Av Syranide
Skrivet av dpom86:

Jag skulle säga att det inte bara är möjligt utan MYCKET möjligt. Bara iden att man skulle lagra xyz data för varje punkt är ju skrattretande.
...Edit3:
Bara för att förtydliga att folk som säger att det skulle gå åt ORIMLIGT mycket data bara drar ut en massa siffror ur röven:
Helt utan komprimering skulle du kunna beskriva 4kvadratmeter "yta" med en upplösning på 16punkter/kvadratmillimeter eller 8000x8000punkter, om-det-hade-varit-ett-foto motsvarande 64Mpix - på 1GB.

För det första så bygger filmkomprimering på extremt "lossy compression" och det faktum att du har keyframes du kan utgå ifrån när du konsturera alla andra frames. Det är inte på något sätt applicerbart här. Sen får du inte glömma att du kan inte traversera en komprimerad datastruktur utan att packa upp den. Mao, du kan bara ha väldigt lätt komprimerad data. Och lägg då till att komprimeringen man kör för texturer på grafikkort är 1:2 eller 1:4 och har många fula artefakter. Och att JPEG som är väldigt lossy har mellan 1:3 till 1:20 för duglig kvalitet.

Så absolut kan man ha välkomprimerad data på HDDn, men även där går det inte komprimera hur bra som helst, http://en.wikipedia.org/wiki/Entropy_(information_theory), men i minnet är det absolut inte lätt... speciellt inte om det ska gå fort.

1 GB = 1024*1024*1024

Så om varje voxel tar 16 byte så blir det:
1024*1024*1024 / 16 = 67108864 voxlar

Men då har vi inte räknat med att det är octrees, vilket betyder att storleken nästan dubblas eftersom du måste spara alla högre nivåer med (16+8+4+2+1 = 31), åtminnstonne i minnet. Sen tar även representationen för alla tomma slutnoder en viss mängd utrymme.

Men om vi igornerar det, och sprider ut voxlarna på ett PLATT 2D-plan, så blir det:
sqrt(67108864) = 8192 (^2)

Så, för 1GB okomprimerad data får du en helt platt yta på 8192*8192, lägg då till att det är mycket upp och ner, och ska marken tom vara ihålig för att reprenstera grus och gräs och liknande så är det lätt 5-10 pixlar per punkt i 2D-planet.
sqrt(67108864 / 5) = 3663 (^2)

Och då ska vi inte glömma hus, träd, buskar, etc, som kan vara extremt mycket dyrare än så.

Och låt oss säga att vi ha en otrolig komprimering på 1:100:
sqrt(67108864 / 5 * 100) = 36635 (^2)

Och så säger vi att varje punkt i 2D-planet är 1 millimeter stor.
36635 / 1000 = 36.6 meter^2 (EDIT: oops, det är ska vara 36.6m)

Det är inte alls imponerande, trots att vi har en otrolig komprimeringsalgoritm, som vi på något sätt även använder i minnet, och ändå använder vi 1GB... och inte representerar någon typ av material och dess parametrar.

Och som du kanske märker av uträkningar så skulle inte ens en algoritm på 1:1000 (eller motsvariga optimeringar) hjälpa situationen på något avsevärt sätt. Och då har jag ändå räknat till fördel för algoritmen i alla mina uträkningar.

sqrt(67108864 / 5 * 1000) = 115852 (^2)
115852 / 1000 = 115.9 meter^2

Jag hoppas att jag inte gjort något räknefel, isf får ni skrika.

Skickades från m.sweclockers.com

Av Syranide
Skrivet av el_genius:

Var det inte per kvadratmillimeter? Jag trodde att de bara behövde lägga "atomer" på ytan av föremålet, inte fylla det med atomer?

Det är säkerligen så ja, men påståendet syftar antagligen på att modellerna dom visar kan ha upp till 64 atomer per kubikmillimeter (dvs, att det är "upplösningen").

PS. Kvadratmilliter kan inte vara rimligt då det skulle implicera ett 2D-plan. Men det spelar mindre roll, slutsatsen skulle ändå vara den samma.

Skrivet av Boss302:

«Heavier-than-air flying machines are impossible .»
Lord Kelvin, British mathematician and physicist, president of the British Royal
Society, 1895.

http://en.wikipedia.org/wiki/Perpetual_motion#Invention_histo...

Vad vill du ha sagt egentligen? Att vår kunskap inom aerodynamik för 100 årsedan var obefintlig? Så för att en framstående person gav ett felaktigt uttalande på felaktiga grunder så får vi inte kritisera något, inte ens uppenbart skitsnack? Datorgrafik är ett väldigt seriöst och aktivt forskningsområde, och tekniken UD bygger på finns det också seriös forskning inom. Det är inte magi eller revolutionerande.

Det KAN vara del av grunden till nästa steg inom datorgrafik, precis som vi gått från Forward Shading till Deferred Shading (vilket förövrigt "uppfanns" 1988!). Det betyder inte att vi kunde använda Deferred Shading när folk började forska och visa demon på det. Det är först nu det verkligen blivit användbart. UD och liknande tekniker är inte praktiska som alternativ inom de närmsta åren (det är ingen konspiration av EA).

Av Syranide
Skrivet av AdelOst:

Jag är lite osäker på varför du citerade mig eftersom du trots allt verkar hålla med mig.

Jag kände att jag hade rätt att uttala mig eftersom jag har läst två kurser inom 3D-programmering och har varit relativ påläst om voxlar redan innan denna hysteri startade.

Det var ingen kritik utan jag fyllde mest igen det som jag tyckte var luckor.

Skrivet av AdelOst:

Till skillnad från dig ser jag dock ingen anledning att tvivla på att han skulle använda Point Cloud Data. Han nämnder det i sin första video då han jämför PCD med voxlar, även om han inte är riktigt sanningsenlig i sin bedömning.
http://www.youtube.com/watch?v=Q-ATtrImCx4

När intervjuarern berättar om Sparce Voxel Octree så medger han att det skulle kunna ses som det. Vilket är helt korrekt, för om du verkligen förstår vad ett Octree innebär så förstår du att det i det här fallet inte gör någon skillnad om trädet består av voxlar eller PCD. I en vanlig SVO går man rekursivt igenom alla celler i ett "Octree" tills cellen är lika stora som en pixel på skärmen. Om det inte finns tillräckligt med detaljrikedom sparad för att cellerna ska komma ner i samma storlek som en pixel kommer man se en kub istället. Om det samma händer med PCD i ett Octree kommer man om jag förstått det rätt se en rundad kant, ungefär som vektor grafik.

Det är stor skillnad på point clouds och SVO även om resultatet kan vara liknande. SVO är en extremt simpel representation som också är extremt simpel att traversera. Point clouds är absolut inte det, däremot om man vrider på alla orden som han så kan man ju självklart hävda att voxlar är point clouds.

Point clouds är en bunt punkter i en rymd, en punkt har ingen naturlig tillhörighet till andra punkter utan kopplas ihop via avstånd och liknande parametrar. Mao, det skulle inte ens fungera bra för ändamålet.

Jag känner mig säker på att dom använder SVO, men kanske hittat på några optimeringar för det. Dom säger ju tom själva att dom konverterar point clouds till trianglar, som sedan konverteras till deras format. Varför skulle man ens göra det om motorn bygger på point clouds? (Även påståendet om att det finns "64 atomer per kubikmillimeter" (dvs, 4x4x4) är ett korkat påstående om det är point clouds)

Skrivet av AdelOst:

Ja jag vet att man kan göra voxlar på GPUn, i det här exemplet så beräknar de dock voxlarna på CPUn och ger grafikkortet en "chunk" med voxlar för att extrahera en polygonmesh från den m.h.a. marching cube algoritm.
http://http.developer.nvidia.com/GPUGems3/gpugems3_ch01.html

Det är stor skillnad på den länken och den jag posta till, din länk har ingenting gemensamt med UD eller SVO. Tekniken du länka till gör om densitetfunktionen till voxlar för marching cubes som du säger, vilket sedan görs om till trianglar... vad har det med UD eller SVO att göra?

Poängen med UD och SVO är att man kan beräkna en pixel utan att geometrins komplixitet påverkar prestandan i någon större grad. Och triangelrendering bygger istället på att geometrins komplexitet är vad som påverkar och väldigt lite beror på antalet pixlar.

Skrivet av AdelOst:

Angående skuggor så förstår jag inte hur det skulle vara något problem med att använda samma depth-buffer till både polygoner och voxlar speciellt eftersom de båda ska kunna kasta skugga på varandra, men annars har du rätt i ditt påstående.

Självklart kan man använda samma depth-buffer till både polygoner och voxlar, men då åker du också på de precisionsproblemen (och övriga problem) som skuggor lider av idag... vilket är ett väldigt stort problem när man har detaljer på den nivån. Det skulle troligtvis uppstå väldigt många konstigheter på ytan och i små utrymmen (vilket även är ett problem idag). Så jag vet inte hur bra det skulle funka i praktiken om man är ute efter detaljer på den nivån som UD visar.

Skrivet av AdelOst:

Detta gör dock ingen skillnad, även om de använder sig av PCD så är tekniker som SVO likvärdiga och ingen av dem som har sysslat med det påstår att de kommer revolutionera grafiken för all framtid för det.
http://procworld.blogspot.com/2011/08/unlimited-detail.html

Skrivet av Corran:

Fraktaler.

För många, många år sedan lanserades fraktalkomprimering - av vanliga bilder - som nästa generations JPEG. Det funkar, men drar (eller drog, eftersom vi pratar 1990-tal) rätt mycket CPU. Inte heller blev komprimeringen i sig imponerande, men det gick i alla fall.

Hursomhelst, att fraktalgenerera individuella löv eller hela träd gick att göra 1990 på en hemdator om än slött. Släng in lite stokastik i det så är det en exakt replika av naturen. Slå ihop det med andra goa tekniker som SVO? Well, det kanske är möjligt? Jag läste inte längre än till D-nivå, redan då började matten bli jävligt bisarr...

Tanken är bra i teorin om vi haft oändligt med prestanda, men hela poängen med SVO är att datan ska vara extremt snabb att traversera. Om datan inte faktiskt finns utan beror på en dyr matematisk formel så faller det hela. Visst går det säkert utnyttja procedurell generering för SVO i framtiden om det skulle bli populärt, men det skulle inte vara som en direkt lösning på minnesproblemet.

Av Syranide
Skrivet av CGI:

Ni kan släppa allt snack om hårddiskplats, Notch har fel. Motorn använder ju instancer, inte kopior. Jag har ganska länge kunnat snabbt rendera flera miljarder polygoner med Maxwell Render (som också voxeliserar data innan rendering), för att det är tusentals instancer av ett objekt...som endast laddas in EN gång i minnet...

Ja, och det är precis det som är hela problemet? Eller menar du seriöst att Notch och alla andra tror att UD kopierar alla objekt och sedan renderar dom? Självklart vet alla att det handlar om instanser.

Skrivet av ScrewFearMe:

Jag skulle gärna vilja se videos på det nvidia gör då som är likadant det som dom här gör

http://www.youtube.com/watch?v=lpfaFrazOn4
http://www.youtube.com/watch?v=Mi-mNGz0YMk

Demot finns även att tanka hem, men det kräver Visual Studio och CUDA toolkit.

EDIT: Att notera, att nVidia demot visar inte lika hög detaljrikedom... men visar istället faktiskt en riktig byggnad och inte bara några få objekt upprepade i oändlighet.

Av Syranide
Skrivet av Emilcore:

En inte så insatt persons tankar: Om de kan göra oändligt många kopior av samma objekt, och fortfarande hålla nere minnet som krävs, borde de inte kunna säga att varje punkt är ett objekt, och sen göra oändligt med såna. Om de sedan har kommit på ett sätt att i realtid koppla ihop punkterna med polygoner, vad hindrar dem? Förstår inte skillnaden. Enlighten me

Du kan absolut göra en voxel till ett objekt, och rita oändligt många sånna... men för att det ska vara någon poäng med det så måste dom placeras ut på en specifik position i världen... och den positionen tar plats. Mao, det du just har beskrivit är en voxel (fast som en voxel i ett objekt = voxel), så situationen är precis densamma.

EDIT: För att förtydliga, dom kan rita ut oändligt många kopior av samma objekt... men dom kan inte placera ut oändligt många kopior av samma objekt. Mao, positionen måste beskrivas matematiskt för att det ska funka.

I praktiken, om du t.ex. ska göra ett hus med voxlar, så kan man antingen göra hela huset som ett objekt, och då blir alla hus helt unika och tar utrymme därefter. Eller så kan man t.ex. stycka upp huset i många mindre bitar som man kan sätta ihop till ett större hus och får på så sätt mycket mer variation, men dom kommer ju uppenbarligen se väldigt lika ut ändå. Och det finns fler praktiska problem med det, och man stöter fort på problem eftersom mycket inte går att stycka upp på detta sätt. (förövrigt så gör man ofta så här idag också med polygoner, så att dom som designar kartorna kan variera husen mycket mer utan att grafikerna måste rita varje hus separat, etc)

Av Syranide
Skrivet av AdelOst:

Är det verkligen ingen annan som reagerar på att han försöker avfärda Atomontage Engine som bara en fysikmotor och påstår att den inte är "unlimited" som deras. Detta trots att den kan göra samma sak och kan hanterar utomhusmiljöer galant vilket han antagligen inte vill visa.
http://www.youtube.com/watch?v=tnboAnQjMKE&list=UULKJqaR2YQac

Point cloud data som han använder istället för voxlar verkar intressant, och i teorin verkar den kunna ge mjukare kanter än både normala voxlar och Marching Cube Algoritm, men den har samma nackdelar.

Som Notch nämner, "64 atoms per cubic millimeter", är 4x4x4 ... mao, det är inte point clouds för då hade man inte ens uttryckt sig så. Och i senaste videon så erkänner han lite halvt att det är voxlar dom använder och inte faktiska pointclouds.

Skrivet av AdelOst:

Deras speciella "sök algoritm" som han hela tiden nämner som gör allt detta möjligt men som han inte vill förklara närmare, är med stor sannolikhet en helt vanlig traversering av ett "Octree".
http://en.wikipedia.org/wiki/Octree

Denna datastruktur gör att man inte behöver lagra tomrummen mellan voxelytorna, eller som i hans fall "point cloud data". Därför är de kubiska räkneexempel på hur mycket minne som skulle krävas inte relevanta eftersom man knappast behöver fylla alla dessa tomrum, men likväl ändå inte unlimited.

http://en.wikipedia.org/wiki/Sparse_voxel_octree

Skrivet av AdelOst:

Förövrigt är voxelmotorer i regel helt "cpu" baserade, så ni ska inte vara helt lamslagna över att han även gör detsamma. Ett utmärkt exempel är det gamla spelet Outcast, som använder voxlar, som var väldigt krävande för CPUn på sin tid.
http://en.wikipedia.org/wiki/Outcast_%28video_game%29

Dom är inte begränsade till CPUn, men dom är inte något mirakel på GPUn heller.

http://research.nvidia.com/publication/efficient-sparse-voxel...

Skrivet av AdelOst:

Skuggor och andra tekniker bör dock inte vara något problem. Här är ett citat:
"Using Deferred Shading you can very easily render voxel and polygon content side by side (and even let them interact with each other visually (like cast shadows on one another))."

Absolut, skuggor är inget tekniskt komplicerat att göra med UD, det bör vara väldigt simpelt tom, men samtidigt bör det vara väldigt dyrt. Att rendera skuggor med vanliga grafikkort betyder att man renderar scenen flera gånger ... vilket man kan tycka borde bli dubbel så dyrt om man har 1 skugga. Men så är inte fallet eftersom shading är det absolut dyraste som görs idag (och det gör man inte för skuggor), så skuggor får man ganska billigt. Medans med UD så bör det i praktiken innebära mer eller mindre dubbla kostnaden (du måste tracea en gång till från varje pixel till ljuskällan). Värre än så, om man ska blanda UD med polygoner så måste man antagligen spara det hela i en temporär depth-buffer så att även polygonerna kan skugga terrängen... någon lösning behövs iaf.

Skrivet av AdelOst:

Jag vill ogärna citera Notch, men i grund och botten är det en imponerande teknologi, men sättet de försöker framställa det på är ett jäkla hyckleri och det är förargligt att så många okunniga människor faller för det.

Det är imponerande, men UD är inte dom enda som forskat och visas demon på det här, som ovan, nVidia själva har vart inne på området. Men än så länge så inser alla att dagens hårdvara inte är mogen för tekniken och att den även då troligtvis har bergränsade användningsområden. Medans UD är väldigt hemlighetsfulla och förvränger allt för att låta som att dom har något fantastiskt.

Av Syranide
Skrivet av Söderbäck:

Aaa, det var väl formulerat och det ligger väldigt mycket i det du säger. Formuleringen med en teoretisk procentsats i hur långt de kommit från min sida var väl något missvisande också. Siffran var väl mer en liten genväg för att uttrycka en teoretisk process framåt.

Vill bara förtydliga att det absolut inte var någon kritik mot dig, utan bara att du blev ett bra exempel på hur jag tror många tänker

Av Syranide
Skrivet av Söderbäck:

Hade de haft allt klart så hade de troligen visat upp mer än ett halvtomt demo. Så iakttagelsen att de troligen inte är "direkt färdiga" med rörliga animationer är säkerligen korrekt. De har ju inte direkt påstått att de är klara heller. De har kanske inte har gjort ett smack med den rörliga delen sedan det gamla demot de visade. Eller så har de kommit 75% av vägen. Vem vet.

Vi har alldeles för lite insikt i hur de hanterar tekniken. Att dra slutsatsen att de inte kommer klara animeringar på grund av dessa videor anser jag vara ganska vagt. Ingen här på forumet har insikt nog för att dra dessa slutsatser. Inte heller utomstående spelutvecklare eller andra 3D-grafiker som inte är insatta i deras projekt har tillräckligt med kött på benen för att kunna dra slutsatser baserade på bra fakta här. Fast det var kanske inte den slutsatsen du drog? Var det kanske bara ett generellt missnöje över att de inte visade mer rörligt kanske?

Vi får väl se om ett år om de lyckats få till något. Det enda vi kan säga nu är att de byggt en fantastisk 3D-motor som i dagsläget inte är färdig. Kanske blir den det, kanske inte. Vi får nog sitta ner i båten ett tag till innan det går att svara på hur det går.

Jag vill bara göra en viktig observation här, dom har hållt på med detta i flera år nu. Det är mer än tillräckligt med tid för att IMPLEMENTERA alla algoritmer och tekniker man vill använda i en motor, dvs, finns det dugliga artiklar på en algoritm så är det sällan speciellt komplicerat att implementera. Dvs, man kan vara "75% klar" med något.

Däremot, att FORSKA fram nya algoritmer och undersöka alla olika scenarion, fördelar, nackdelar, alternativ, genvägar, etc... det kan ta ohyggligt lång tid att forska fram nya algoritmer som funkar i praktiken. Och UD är uppenbarligen ett forskningsprojekt, så att säga. Hade alla algoritmerna och teknikerna redan vart utforskade och väldokumenterade så hade dom vart klara för längesedan. Dvs, man kan inte vara "75% klar" med något, för dom sista 25% kan vara 1 dag, 100 år eller tom omöjliga att uppfylla.

Och av detta så är det inte svårt att dra slutsatsen. Att vad det är dom sysslar med och behöver är att forska fram mer algoritmer för att lösa problemen dom dras med... dvs, dom kan inte överhuvudtaget förutsäga vad alla bekymmer och hinder kommer vara för att nå fram dit dom vill. Så, animation handlar inte om att dom inte har haft tid att implementera animation, dom har inte haft tid att forska på dugliga algoritmer för det... hade dom tagit fram en bra algoritm för animation så hade dom åtminnstonne också haft ett techdemo för sig själva som bekräftar att algoritmen funkar som tänkt (vilket med största sannolikhet hade experimenterats med direkt i UD). Samma med precis alla andra områden, om dom inte redan har implementerat en lösning på det, så är det EXTREMT osannolikt att dom ens har en lösning på det.

Och notera, på den nivån dom bör ligga på så är det ingen akademiker som sätter sig ner och säger "aha! jag har kommit på en lösning", det handlar om väldigt mycket jobb, slit och experimenterande.

Av Syranide
Skrivet av Gender Bender:

24 major models och sen utöver det så är det mindre objekt som gruskorn, gräs, löv m.m.
För att citera vad han skrev "A wild guess I found 80 to 150 other items that I noticed. I counted 20+ leaves alone"

174 unika modeller på en DVD alltså, och då får vi inte glömma att DVD är ett gammalt lagringsmedium som kommer att ersättas av blu-ray. Och ett spel på kanske 4st blu-ray skivor (ca: 200GB) får du nog ta att acceptera om du vill framåt i utvecklingen av grafik. I stället för att köpa ett nytt grafikkort för flera tusen varje år så blir det att du köper hårddiskar i stället, simple as that.

Vad tror ni folk på 80- och 90-talet skulle ha sagt om man berättade att spelen kommer vara 10 GB stora om 20år? Dom flesta skulle nog ta sina disketter och vifta bort allt svett från deras nervösa pannor.

Jag tolkar det som att du läser ditt eget citat fel, han nämner att det finns "24 major models" på DVDn, och han har HITTAT 80-150 andra objekt... INTE på skivan. Dvs, dom objekten är sannolikt som jag sa, del av större block (24 major models) som sparas på skivan. Dom sparas inte separat och existerar inte separat. Och det spelar ingen roll om DVD är ett gammalt lagringsmedium... 24 modeller är inte mycket (EDIT: det som visas i världen är inte mycket!), du skulle inte ens få plats med rimliga mängder data för en större värld på en Bluray. En sådan elefantmodell i ett spel idag skulle väl kanske ligga på en megabyte, ganska stor skillnad där... och den sklulle vara tillräckligt detaljerad för allt utom att sitta med kikare från 1m avstånd, plus att den skulle ha mycket bättre shading.

Oavsett, säg att du har rätt, så gör dom isf något väldigt konstigt, för kollar man i världen så ser allt likadant ut, alla träden sitter som limmade mot marken (alltid i mitten av varje block), och variationen som borde finnas av att det finnas massor med lösa objekt saknas, det är verkligen som att allt sitter ihop som block. Och det spelar i slutändan ändå ingen roll, för ett löv och småsaker är lätt att representera, försök representera ett hus, en bil och ett berg... och sen inte använda samma hus på varenda ställe i hela världen.

Och nej, du har fortfarande missat hela poängen, det han visar är en lösning som alternativ för trianglar, shading är separat från det och är fortfarande precis lika viktigt... prestanda för shading är det absolute största problemet idag. Att rita miljontals trianglar är som jag skrev innan inte ens svårt för gamla grafikkort. Och på tal om shading så är det något SVO delvis har problem med på grund utav hur det är uppbyggt, det är ett mycket mindre problem för trianglar.

Och vi snackar inte om 10 år, vi snackar om nutiden... jag kan ju påstå att jag håller på och utvecklar flygande bilar och visa något löjligt experiment, och sen vänta 50år på tekniken ska forskas fram, så har jag haft rätt hela tiden!

Skrivet av Aemony:

Det beror helt och hållet på hur stor "spelaren" är i förhållande till objekten i världen. Världen i filmen är inte bara långt större än en HL2-karta men om vi även ska räkna med spelarens storlek i förhållande till objekten i världen så hade spelaren blivit enormt liten i denna högdetaljerade värld. Med andra ord är världen dem har visat otroligt mycket större än en HL2-karta.

Fast där har du faktiskt hoppat över ett steg, anledningen till att världen är så detaljerad är inte för att det fräckt... utan för att den måste vara så detaljerad. Klipper du bort nivåer så kommer texturkvaliteten och detaljkvaliteten minska dramatiskt. Objekten är inte längre modeller där man sträckt en textur över, och därför kan ändra form på hur som helst, texturen i UD kommer från att varje voxel har sin egen färg, så för att hålla kvaliteten uppe bör en voxel aldrig vara större än en pixel på skärmen, troligtvis bör den vara en bra bit mindre än det. Visst, säg att du kan klippa bort 1, kanske tom 2 nivåer och ändå ha acceptabel kvalitet... då har du minskat utrymmeskravet i BÄSTAFALL med 1:4 - 1:16, vilket i verkligheten troligtvis lär vara närmare 1:2 - 1:4.

Och nej, deras värld är fortfarande inte större än en HL2-karta, det borde vara fullt möjligt för dom att rita sina 24 block oändligt antal gånger, långt bort i horizonten... det är fortfarande bara 24 relativt små objekt (och där i ingår även terrängen). Och av videon att dömma, så bör den totala ytan för dom 24 blocken vara storleken av en lägenhet.

Skrivet av piotrr:

"Detta" kan vara en uppsättning videos.

Ganska tydligt att det inte är det, oavsett, tekniken är riktig och fungerar, Euclideon är inte först och dom är absolut inte dom enda som har demon som fungerar. Det är skitsnacket som är problemet, att ta något som alla vet har X antal välkända och mycket svåra problem, sedan visa ett demo där det är tydligt att man inte löst de flesta av dom... och påstå att det man har är framtiden.