Krönika: Konstlad utveckling gör ingen nytta

Permalänk
Medlem
Skrivet av medbor:

Problemet är väl att perfekt fotorealism skulle kräva prestandan från minst ett hundratal 4090 för att klara av att skicka tillräckligt med strålar per pixel i någorlunda realtid. Vi är så långt borta från det att det knappt är kul att skämta om

Möjligt att det är så mycket som det krävs, men det vi har nu är fortfarande på rätt väg. Att fortsätta med massa rasteriserade fusktekniker som ändå aldrig kommer nå hela vägen fram istället för att göra det med en simulering hur ljus funkar i verkligheten är bara korkat. Så precis som filmindustrin gick över till raytracing för 20ish år sen så kommer även spelindustrin också göra det

Permalänk
Medlem

Fotorealistisk grafik med realtids-RT ser jag definitivt som en teknisk möjlighet. Inte idag men med tanke på hur spelgrafik har utvecklats sedan 80-talet och hur det en gång i tiden tog ett antal timmar att rendera en stillbild med RT går ju utvecklingen helt klart åt det hållet. Dagens spel är ju tämligen "fotorealistiska" jämfört med hur det såg ut när 3D kom (t.ex Wolfenstein 3D och Doom).

Som jag ser på saken är fördelen med hårdvaru-RT och andra tekniker att det "förenklar" spelutvecklingen. Detta innebär att istället för att "fejka" effekterna (eller t.ex manuellt programmera NPCers beteende) kan det överlåtas till spelmotorerna, d.v.s den sistnämnda kan själv hantera ljussättning, möjligheterna för NPCerna att agera "realistiskt" via AI och annat. Istället övergår utvecklingsprocessen mer till att "ange parametrarna" som spelmotorn behöver och sedan kan den räkna ut resten.

Att tillverkarna av grafikkort kommer med nya tekniker, t.ex RT och uppskalning är i sig bra. Man kan dock diskutera behovet av standardisering, d.v.s att dessa tekniker inte är proprietära utan fungerar med olika kort inklusive iGPUer. Möjligheten att skala upp/sampla om bilden får betraktas som lämplig med tanke på att redan 4K pressar dagens hårdvara och att ännu högre upplösningar lär ta några generationer innan det går att köra i 60-120 fps eller högre med alla inställningar på Ultra. Går det då att skala upp bilden utan märkbar försämring genom intelligent skalning kan ju då det önskvärda resultatet uppnås snabbare.

Jag skulle också vilja påminna om att när det gäller spelutveckling vs hårdvara var det intressant på 90-talet. Då gick utvecklingen så snabbt att man fick vara beredd på att ständigt uppgradera PCn eftersom en burk var stenålder inom ett år. 1993 fick vi t.ex Pentium 60, 1994 Pentium 90/100, 1995 Pentium 120 och 133, 1996 Pentium Pro 150 och Pentium 150, så kom MMX 166 och 200 1997 följt av Pentium II 266... Då var det inte tal om att ett spel fungerade bra "fyra-år-bakåt-i-tiden", t.ex att år 1997 sitta med en 486a från 1993 och tänka tanken på att spela de senaste spelen.

Idag går ju utvecklingen avsevärt långsammare. Spelen skalar ju också klart bättre, Cyberpunk 2077 kräver ju inte ett 4090 för att ens kunna spelas utan det går att anpassa grafikinställningarna. Relativt hårdvaran är ju dagens spel inte lika krävande som på 90-talet där det helt enkelt var nödvändigt att uppgradera eftersom de senaste titlarna knappast rullade på "två år gamla" maskiner.

När det gäller pris/prestandaförhållandet har utvecklingen helt saktat ned, mycket p.g.a minskad konkurrens och scalpingproblematiken vilket skickat signalen att det går att sälja produkterna med andra marginaler än vad som tidigare varit fallet inom IT-sektorn. Dock är det ju mekanismer bakom som är långt djupare samt politiska/ideologiska men generellt kan man säga att sålänge IT-produkter främst såldes till tekniskt lagda användare låg också fokus mer på tekniska aspekter och pris/prestanda. Därefter visade bl.a. Apple att det gick att sälja IT-produkter som om det vore märkeskläder och modeväskor vilket började öppna upp "nya" segment vilket sedan följdes av miningboomen och med den - scalping av datorprodukter (grafikkort i det fallet). Dessa faktorer och mekanismer har påverkat pris/prestandaförhållandet.

Permalänk
Medlem
Skrivet av cyklonen:

Men så ser nog all teknisk utveckling ut. En långsam start, sen ett genombrott som ger en snabb nivåhöjning under några årtionden, sen en avtagande eller snabbt avstannande ökningstakt.

1903 genomfördes den första kontrollerade flygningen för motor med ett flygplan. En sträcka på några tiotals meter, i joggingfart, på en höjd av några meter. Tio år senare var fartrekordet över 200 km/h. Ytterligare tio år senare en bra bit över 400 km/h. 30 år efter första flygningen nosades det på 700 km/h. 40 år senare sprängdes 1000 km/h-väggen och efter 44 år sprängdes självaste ljudvallen, med farten 1078 km/h. Allt det inom ett tidsspann som motsvarar ett yrkesliv för en person. Inga nya absoluta fartrekord för bemannade, motordrivna flygplan har satts sen 1967 när ett X-15 flögs i drygt 7000 km/h. Från 1903 till 1967 är det 54 år. Från 1967 till 2023 är det 56 år.

Ungefär samma typ av utveckling ägde rum mellan 1850-talet och 1910-talet för militära stridsfartyg, främst slagskepp och andra stora fartyg. Man gick från segelfartyg som inte hade förändrats särskilt mycket under de föregående 300 åren, med träskrov, möjligen med en primitiv ångmaskin och propeller, mynningsladdade kanoner i portar på ett kanondäck, till 3-4 gånger så långa slagskepp med tjocka pansarplåtar av härdat stål, bakladdade kanoner som skjuter 30-40 cm tjocka projektiler på närmare ett ton flera tiotals kilometer från bepansrade kanontorn, och med ångturbinmotorer som driver propellrarna och ger farter på mer än det dubbla som segelfartygen kom upp i en bra dag. Efter det har inte jättemycket hänt på ytan. Fartyg har egentligen mycket mindre pansar, är generellt mindre än de största förr, undantaget hangarfartygen, och har missiler som primära vapen med ganska små kanoner som sekundära vapen för mindre mål på nära håll. De stora skillnaderna där är på insidan, med gasturbiner eller kärnreaktorer/ångturbiner för framdrivning, och all elektronik som inte fanns för 110 år sen.

Inledningsvis plockar man de lågt hängande frukterna, rent tekniskt, men efter ett tag når man begränsningar som är fysiska och som sänker utvecklingstakten avsevärt, samtidigt som det blir allt dyrare. 00-talet var nog den gyllene eran för grafikkortsutvecklingen. Allt blev bättre i en rasande takt. Sen började motluten bli till backar som blev till väggar. Och här är vi nu.

Jag håller med om allt du skriver, jag förstår också varför det är så. Jag klagar inte, bara förklarar att det medför minskad utveckling på spelsidan också

Exakt samma S-kurva finns ju inom mjukvaru-branchen med, allting som förr var tusentals rader är numer miljontals rader av stödbibliotek och magiska utvecklingsverktyg för att kräma ut några till promille, att bara underhålla utvecklingsmiljön och processerna är nästan större än själva kodskrivandet idag

Det jag menar, igen, är ju att det finns många anledningar som begränsar utveckligen. Framförallt om man kollar på nya tekniker och inom de stora bolagen/spelen. Innovationen och nytänkandet finns mer inom indie och startups (som det ofta var förr med), men där brukar istället helheten ofta bli lidande. Utveckling finns det fortfarande gott om, men inte i samma skepnad som förr

Permalänk
Medlem
Citat:

Uppskalningstekniker som Nvidias DLSS, AMD:s FSR och Intels XESS är här för att stanna....

Det finns säkert flera orsaker till att dessa tagits fram, men jag ser två fördelar:
1. Grafikortet jobbar smartare, inte hårdare för att få nära likvärdig kvalite som att brute force:a fram resultatet, det krävs grovt räknat 4x råprestanda att gå från säg 1080p till 4k, osv.
2. Det ökar livslängden för konsumenterna på befintlig hårdvara, plötsligt kan Pelle köra sitt nya spel när han slår på uppskalning trots att kortet har ett par-tre år eller mer på nacken.

Så just dessa teknologier tror jag inte är av ondo totalt sett...

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Medlem

Märklig krönika, jag fattar ärligt talat inte riktigt poängen eller argumenten, eftersom, som även andra påpekat, detta har väl varit fallet sen vi fick 3d-kort?

"Detta gäller fortfarande till stor del. Med nya tekniska framgångar som ray tracing och uppskalningstekniker har det dock skett än ändring. Jättarna har börjat fokusera mer på hur bra företagets produkter är när det kommer till just ray tracing och uppskalning, vilket inte varit ett problem förrän jättarna började implementera teknikerna."

Jo uppskaling löser ett stort problem som vi lidigt av sen vi lämnade CRT-tiden; att det historiskt vart ett uselt val att köra något annat än native upplösning när man spelar, vilket gör att man vart tvungen att välja mellan lågupplöst skärm eller svindyrt grafikkort (som inte ens säkert klarar det oavsett). Redan förra konsolgenerationen kunde man se tydligt att det skulle bli framtiden att gå tillbaka till mer dynamiskt förhållande på antal pixlar på din panel, och vad man renderar i. Det är för mig nog den viktigaste inställingen vi fått i en grafikmeny på jag vet inte hur länge, det ger så otroligt mycket mer flexibilitet när man optimerar en titel för prestanda/presentation. Och det är ju inte som att hårdvarutillverkarna var först, rendering resolution och liknande inställningar fanns tidigare, bara att nu görs det med bättre resultat. Och vi börjar se det mer utbrett, på PC bör väl tilläggas, eftersom, utvecklarna (ja dom du säger ska föra utvecklingen) som sagft gjorde det hela förra konsolgenerationen.

Permalänk
Medlem
Skrivet av ROGBear:

Då var det inte tal om att ett spel fungerade bra "fyra-år-bakåt-i-tiden", t.ex att år 1997 sitta med en 486a från 1993 och tänka tanken på att spela de senaste spelen.

Idag går ju utvecklingen avsevärt långsammare. Spelen skalar ju också klart bättre, Cyberpunk 2077 kräver ju inte ett 4090 för att ens kunna spelas utan det går att anpassa grafikinställningarna

Ja precis, utvecklingen av nya spel i symbios med ny hårdvara är inget nytt om man ser tillbaka historiskt. Det som är nytt är att folk har kvar sina grafikkort mycket längre vilket gör att det tar längre tid att få fullt genomslag för nya tekniska funktioner.

Hade RT kommit för 20 år sedan så hade det gått mycket snabbare innan alla hade ett grafikkort som stödde det och funktionen hade setts som självklar. Idag sitter en del fortfarande och spelar på GTX 900-kort, som ju börjar bli 9 år gamla vid det här laget.

Permalänk
Medlem

Håller inte med krönikan över huvud taget.
Delvis har våra krav på "bra prestanda" höjts enormt, nu för tiden vill man ha runt 100 fps för att känna sig riktigt nöjd med prestandan, förr var 40-60 fps där man kände sig nöjd. Valet av Crysis som exempel är ju inte riktigt toppen heller då det var ett otroligt krävande spel som inte heller skalade bra med hårdvara, även med dagens top komponenter presterar det otroligt mycket sämre än många moderna spel.

Om vi sedan går över till RT, det är en teknik som alltid varit den naturliga utvecklingen när det gäller grafik teknik. Rasterrendering har en hård gräns i ljussättning som har varit nådd för länge sedan, oavsett vad man gör så kommer "fuskgrafik" aldrig nå samma nivå som simulering. Detta är också en teknik där det krävs att GPU tillverkarna steppar in och pushar hårdvara med dedikerade kretsar för just RT, självklart går det att köra RT som vanliga shaders, men prestandan blir ju värdelös. Vi har fortfarande bara sett början av RT och cyberpunk är egentligen det enda spelet i den klassen som använder det fullt ut, vi kommer sakta se hela branschen vända till RT som grund för all rendering.

Visa signatur

R7 5800X3D | ROG Strix X570-F Gaming | Corsair Vengeance PRO RGB 32GB 3600Mhz | Gigabyte RTX 4080 Eagle | Samsung 980 Pro 2TB | Samsung 980 Pro 2TB | Seasonic Prime PX-850

PS5 | Nintendo Switch | MiSTer FPGA

Permalänk
Medlem
Skrivet av sKRUVARN:

Märklig krönika, jag fattar ärligt talat inte riktigt poängen eller argumenten, eftersom, som även andra påpekat, detta har väl varit fallet sen vi fick 3d-kort?
...

Jag är nog böjd att hålla med, även på ett betydligt bredare plan (bortom gfx-kort). Det finns definitivt utveckling som drivs av att lösa problem, men det är i min erfarenhet väldigt mycket utveckling som drivs av att skapa nya behov som kunden inte visste om att den hade. Det senare kan nog beskrivas som en naturlig utveckling oavsett kategori när något går mot att bli commodity.

Visa signatur

Citera mig för svar.
Arch Linux

Permalänk
Medlem
Skrivet av cyklonen:

Ett dåligt och rätt meningslöst mått.

1. "Prestanda" handlar om mer än bara rena FPS i en benchmark. För vissa, i synnerhet e-sportare som spelar saker som rent tekniskt hör hemma på 00-talet, är det väl det enda relevanta, men det finns mycket mer i dag. Jag värderar t ex RT-prestanda högt, och den existerade inte förrän för ca fem år sen (första RTX-kortet kom i aug 2018). Där har prestandan ökat enormt jämfört med priserna, om man nu ändå vill räkna så.

2. Det är inte grafikkortens fel att inflation och dålig växelkurs finns. Om man justerar för inflation och växelkurs är skillnaderna mycket mindre i pris än vad många tror. Prestanda per krona fungerar inte särskilt bra pga det.

3. Hur många produkter får bättre prestanda per krona i samhället? Får bilen bättre prestanda per krona? Får stavmixern det?

4. Även om man går med på att prestanda per krona är ett acceptabelt mått, så är det ändå så att taket för den prestanda man kan köpa har lyfts rejält under åren. Ett 4090 är sinnesjukt mycket snabbare än ett 1080 Ti, som exempel. I Sweclockers prestandaindex för 4K är 4090 lite över fyra gånger snabbare än ett 1080 Ti. Utgångspriset för 1080 Ti var 700 dollar. Utgångspriset för 4090 var 1600 dollar. Om pris och prestanda hade följt varandra hade ett 4090 kostat 2800 dollar när det släpptes. Ja, jag använder dollar eftersom det tar bort effekten av skillnader i inflation och effekten av förändringar i valutakurser.

Självklart är det ju så att inflation och tillgång har påverkat priserna, men poängen är ju lite att Nvidia passat på att höja sina priser. Och det är ju något som dom i högsta grad har "utvecklat" i och med senaste generationen. Där tycker jag vi kan snacka om att "Konstlad utveckling gör ingen nytta". (se rubrik)
Det tråkigaste om vi ser till det lägre segmentet, är ju att 'mellanklassen', x060, kostar som x070 gjorde förut, men presterar knappt bättre än föregående generation.

Du pratar om RT prestanda. Och visst, den har blivit bättre. Till skillnad från artikelförfattaren så tycker jag att den utvecklingen är bra. det är ett val trots allt om man vill ha det eller inte. Du vill uppenbarligen ha RT prestanda, och det är helt ok. Nångång i framtiden så kommer till och med de billigaste korten ha tillräckligt med RT prestanda. Jag tycker bara att det är tråkigt när den vanliga prestandan blir lidande, som det uppenbarligen blivit i och med senaste generationen. (där en 4060 ligger långt ifrån 3070, nånstans mellan 3060 och 3060ti.) 4090 Ti Super är ju nice!,,, men jag väljer njurar!

Permalänk
Medlem
Skrivet av Lordsqueak:

Självklart är det ju så att inflation och tillgång har påverkat priserna, men poängen är ju lite att Nvidia passat på att höja sina priser. Och det är ju något som dom i högsta grad har "utvecklat" i och med senaste generationen. Där tycker jag vi kan snacka om att "Konstlad utveckling gör ingen nytta". (se rubrik)
Det tråkigaste om vi ser till det lägre segmentet, är ju att 'mellanklassen', x060, kostar som x070 gjorde förut, men presterar knappt bättre än föregående generation.

Just priserna är lite mer komplicerade än så.
Det är flera faktorer som samverkar negativt där.

Kronans värde mot dollarn är den kanske största. Ofta jämför folk med priser när kronan var väldigt mycket starkare. För tio år sen kostade en dollar ca 6.50 kr. I dag ca 11 kr. Bara det är 70 procent mer.
Nästa grej är förstås inflationen. På tio år har prisindex ökat med ca 29-30 procent.
Om vi bara tar de två faktorerna i sig innebär det att ett kort som kostade 400 USD 2013 bör ha kostat ca 3300 kr i Sverige. Samma kort, allt annat lika, borde kosta ca 7300 kr i dag. Mer än dubbelt alltså.

Men nästa faktor är också att tillverkningskostnaderna har ökat pga den mycket finare chiptillverkningsprocessen. För tio år sen var 28 nm den normala processtorleken. För senaste generationen är den 4 nm. Utrustningen som krävs för det är mycket dyrare, antalet kretsar som måste kasseras pga mikroskopiska fel är högre, och hela tillverkningsprocessen kräver mer energi, tid och resurser. Samma sak för minneskretsarna på grafikkorten, som inte bara blivit mycket snabbare och mer komplicerade, utan också fler. För tio år sen var 1-2 GB normalt. I dag är det 8-16 GB som är normalt. Här är det svårt att ge nån exakt siffra för hur mycket mer det kostar, men en faktor två totalt är inte orimlig.

Slår man samman allt detta är priserna i stort vad man skulle förvänta sig i dag. Värstingmodellerna har ett prispåslag som är utöver, men för mellannivå är det inga orimliga priser relativt för tio år sen. Ett GTX 770 kostade 400 dollar i maj 2013, och ett 4070 kostar 600 dollar i år. Ca 50 procent mer, men av det är då ca 30 procent inflation (inflationen i USA är nästan samma som den i Europa/Sverige under samma period). Utöver det är det alltså bara runt 20 procent som är prisökning orsakad av dyrare tillverkning och högre vinstuttag. Hur stor andel av totalen som är vinst, är svårt att säga. Går inte att svara på om den är högre i dag än 2013 eller tvärt om.

Andra datorkomponenter har i stället blivit relativt sett billigare, eller inte ökat lika mycket i pris, som chassin, lagring och periodvis, nätaggregat. Därför har grafikkorten blivit en så mycket större andel av totalen.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

Ett problem när det gäller grafikkort är ju också diskrepansen mellan iGPU och dGPU. Under lång tid har det ju i princip varit enkelbiljett till dGPU om man tänkt spela eftersom iGPU-segmentet under lång tid stampat med Intel HD/Iris/Iris XE samtidigt som det rått stor teknikkonservatism som säger att så fort grafikprestanda prioriteras är det "gamingdator" som gäller.

Det lär behövas en utveckling där situationen blir lite mer åt följande håll:

1. iGPUer blir tillräckligt kraftfulla att de är tillräckliga för "entry level"-spelande vilket i sin tur skulle ha god effekt och göra PCn mer konkurrenskraftig mot konsoller - helt enkelt att liknande arkitektur används på datorsidan.

2. dGPU-utvecklingen inriktar sig på att "dagens generation" har specifik prestanda, när "nästa generation" kommer höjs prestandan och det som tidigare var "highend" blir den nya "mellanklassen" över tid. D.v.s ett "5060" motsvarar ett "4070", "5070" motsvarar "4080" o.s.v.

Ifråga om punkt 2 går det ju också att argumentera att "normal" utveckling ju går i den riktningen, d.v.s att det som tidigare var highend blir standard med tiden och att prishöjningar (modell nytt kort släpps med ungefär samma prestanda som föregående men med högre prislapp) stör den bilden. När t.ex 50-korten plötsligt blev 60-kort börjar utvecklingen glida av spåret.

När det gäller tillverkning måste det också påpekas att processer förfinas. När TFT-skärmar kom var 90% av produktionen bara att kassera p.g.a pixelfel/panelfel varför produkterna var extremt dyra och exklusiva. Således kan man definitivt argumentera att det behövs ett highend-segment där nya tekniker tas fram och förfinas, dessa sprids sedan neråt och utåt i portföljen när man kommit över barnsjukdomarna och fått upp volymerna. Att en ny process är dyrbar när den är ny är naturligt, dock är det normala förhållandet att det sker mognad över tid varför kostnaderna för den specifika processen sjunker när dels utvecklandet av den betalat sig, dels när yielden förbättras (i de fall det finns problem där, d.v.s hög felprocent).

Apropå priser. Sverige har under många år haft prisproblematik när det gäller elektronik. Redan på 80-talet skrevs det kritiska artiklar i t.ex Datormagazin om hur det kunde komma sig att en A500 hade dubbla priset här mot i Västtyskland. Räknar man om svenska priser i USD kan man ju också se det rätt så tydligt, t.ex hur en $399-produkt plötsligt blir $730 om det svenska butikspriset/MSRP konverteras. Ja, det finns förklaringar men faktum kvarstår och det är en problematik som funnits sedan 80-talet mer eller mindre och inte bara när det gäller datorer utan även andra elektronikprodukter.

Dessutom finns ju de produkter som säljs som "lyx" där t.ex priserna i Tyskland är lägre än i USA eftersom det visat sig (Cantons högtalare samt Mieles vitvaror exempelvis) att försäljningen ÖKADE när priset höjdes. Canton introducerade sina högtalare med samma priser som i Tyskland och hade trög försäljning eftersom "priset var för lågt" och "inte antydde kvalitet". Bolaget dubblerade sina USA-priser och helt plötsligt satte försäljningen igång på allvar.

Där har väl egentligen miningboomen skapat en motsvarande situation när det gäller grafikkort och således "inspirerat" till prishöjningar då det ju tydligen varit populärt att handla av scalpers (en del har ju t.o.m hävdat att grafikkorten varit "för billiga" och att scalpers "justerat värdet" på dem).

Permalänk
Medlem

För mig som inte bryr mig om RT prestanda och inte har någon nytta av DLSS3 så känns det surt att få det påtryckt och betala utvecklingskostnaden för något jag inte använder men som skrivits så är det ju förhoppningsvis bra för utvecklingen i långa loppet så det brukar va något man får leva med.

Det brukar ju även vara såna finesser som får folk att hoppa på senaste generationens grafikkort vilket tyvärr inte händer i samma utsträckning nu när det priserna blivit så galna (svag krona eller ej så verkar folk i USA tycka samma sak eftersom försäljningen inte blivit som förväntat).
Svag krona kan inte förklara generationsprisökningen på t.ex. RTX 3080-RTX4080 eftersom båda priserna påverkas lika mycket, ta t.ex Asus RTX 3080 som kostade 9500:- när Asus RTX 4080 släpptes och kostade lägst 16500:- det är över 73% ökning och även med lägsta noteringen någonsin på 15000:- så innebär det nästan en 60% ökning.

Permalänk
Medlem

Var det inte Crysis som artificiellt var onödigt tungdrivet för att det renderade saker som ändå inte syntes i den färdiga bilden? Känns lite fel att säga att detta var mer "naturlig" utveckling än introduktionen av RT. (Som långa redan förklarat varför den var rimlig)

F.ö. så löser ju DLSS _exakt_ samma problem som att öka beräkningskraften. Nämligen att kunna rendera fler bilder per sekund med högre krafikkvalite. Ser absolut ingen snledning att se detta som något fundamentalt annorlunda.

Edit: Kan vara så att jag minns fel om Crysis. Om någon känner igen detta fenomen får du gärna påminna mig vad det handlade om ^^

Permalänk
Medlem
Skrivet av Hatesunday:

Har läst igenom lite snabbt och ingen som nämner det amd gjorde som va riktigt bra MANTLE . Kommer ihåg när jag satt på min i7 4770k och ett R9 290x och drivrutinen för Mantle kom spelade Battlefield 4 och aktiverad funktionen i spelet, vilket flyt det vart och skillnaden va verkligen stor för mig ialf.
Sedan tog dom bort Mantle i bf4 vet ej varför och då försvann mitt sug och jag slutade spela spelet.
Ni som sitter med ett Amd R7 eller R9 serie grafikkort fortfarande, kan ni dubbel kolla om det är borttaget fortfarande.
Citera mig gärna vill veta varför det togs bort min bf4 karriär las av direkt efter detta.

Problemet med Mantle var att det endast fungerade med (vissa av) AMDs grafikkort, och var därmed dödsdömt redan från början. AMD lade efter något år ned Mantle och donerade det istället till Khronos Group (ansvariga för bl.a. OpenGL), vilket resulterade i den öppna standarden Vulkan som nu används i många spel.

Eftersom nästan inga spel hade stöd för Mantle så valde AMD senare att ta bort stödet för Mantle i drivrutinerna och istället lägga resurserna på Vulkan och DX12.

BF4 har dock vad jag vet aldrig plockat bort stödet för Mantle, så om man av nostalgiska skäl vill köra BF4 med Mantle nu för tiden så kan man använda GRVK som översätter Mantle-anrop till Vulkan.

Permalänk
Medlem
Skrivet av Nyhet:

Ta path tracing i Cyberpunk 2077 som exempel. Det är urläckert och höjer det visuella till skyarna med realistiskt ljus, men kräver Geforce RTX 4090 samt DLSS 3 med bildinterpolering för att ens vara spelbart. Rent krasst har Nvidia samarbetat med CD Projekt RED för att implementera tungdrivet grafikläge, vilket blir ett problem som endast kan lösas genom att köpa kraftfullt grafikkort. Det är förstås en översimplifiering, men i slutändan är det ett konstgjort problem, helt enkelt.

Jag ser faktiskt inte att just detta exempel utgör ett problem öht, iaf inte ur det perspektivet.

Det är väl inte så att folk i någon nämnvärd omfattning känner sig tvungna att springa och köpa RTX 4090 pga detta? (4090 är väl f.ö. utom räckhåll pga prisnivån i de flesta sammanhang)
Det faktiska resultatet är att vi har ett valbart renderingsläge i ett faktiskt spel som främst utgör ett häftigt techdemo kortsiktigt, och kanske något mer långsiktigt.

Det kan vara ett problem att CDPR eventuellt distraherades från något som vore viktigare för deras spel när de lade tid på att implementera detta, men att funktionen nu existerar ser jag inget som helst problem med.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem

Jag är en sån tråkig jävel som vill ha 144 fps 1440p så jag sänker inställningarna rejält och RT är av, vill jag ha fotorealism kollar jag på en film eller går ur i naturen 🤣

Spelglädje över grafik och det jag spelar mest är WoW, Minecraft, Tibia och Cities skylines.

Visa signatur

R7 5800X3D / RX 6950 XT / 32GB Ram / 1TB SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk
Avstängd

Hellblade 2 verkar lovande vad gäller fotorealism om man skall tro spelutvecklarna, men det är ju inte första gången spelutvecklare hävdar att deras spel blir fotorealistiskt för att sedan inte hålla vad man lovat, kan ju hoppas att dom håller vad dom lovar.

Visa signatur

The more I get to know people, the more I love my dog.

Permalänk
Medlem
Skrivet av sasfoxi:

Hellblade 2 verkar lovande vad gäller fotorealism om man skall tro spelutvecklarna, men det är ju inte första gången spelutvecklare hävdar att deras spel blir fotorealistiskt för att sedan inte hålla vad man lovat, kan ju hoppas att dom håller vad dom lovar.
https://www.youtube.com/watch?v=ee83B7RYSUc

Det som visas upp där ser imponerande ut iaf...

MEN angående "inte första gången spelutvecklare hävdar att deras spel blir fotorealistiskt för att sedan inte hålla vad man lovat, kan ju hoppas att dom håller vad dom lovar."... vad har de faktiskt lovat?

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Avstängd
Skrivet av evil penguin:

Det som visas upp där ser imponerande ut iaf...

MEN angående "inte första gången spelutvecklare hävdar att deras spel blir fotorealistiskt för att sedan inte hålla vad man lovat, kan ju hoppas att dom håller vad dom lovar."... vad har de faktiskt lovat?

To bring Senua's Saga: Hellblade II to life, Ninja Theory, a part of XBOX Game Studios, is now using the new Metahuman Animator. The game is running in Unreal Engine 5.
Det dom visar upp från Hellblade 2 hur dom gör är ju fotorealistiskt och lovande, bara att det blir så när dom lanserar det under 2024.

Visa signatur

The more I get to know people, the more I love my dog.

Permalänk
Medlem
Skrivet av evil penguin:

Det som visas upp där ser imponerande ut iaf...

MEN angående "inte första gången spelutvecklare hävdar att deras spel blir fotorealistiskt för att sedan inte hålla vad man lovat, kan ju hoppas att dom håller vad dom lovar."... vad har de faktiskt lovat?

Typexempel på det är ju självaste Crysis (hyllat av artikelförfattaren) när det visades upp tokrenderat på en spelmässa 2006.
Var låååångt ifrån vad som släpptes.
Känns som det var typ peak "fake" speldemo runt 2006...
Jag menar det var som att se reklamen för en perfekt hamburgare på Mc Donalds och sen "drabbas av verkligheten" när man fick det sorgliga hopsjunkna eländet till burgare.

Permalänk
Medlem
Skrivet av sasfoxi:

To bring Senua's Saga: Hellblade II to life, Ninja Theory, a part of XBOX Game Studios, is now using the new Metahuman Animator. The game is running in Unreal Engine 5.
Det dom visar upp från Hellblade 2 hur dom gör är ju fotorealistiskt och lovande, bara att det blir så när dom lanserar det under 2024.

Skrivet av Magnus303:

Typexempel på det är ju självaste Crysis (hyllat av artikelförfattaren) när det visades upp tokrenderat på en spelmässa 2006.
Var låååångt ifrån vad som släpptes.
Känns som det var typ peak "fake" speldemo runt 2006...
Jag menar det var som att se reklamen för en perfekt hamburgare på Mc Donalds och sen "drabbas av verkligheten" när man fick det sorgliga hopsjunkna eländet till burgare.

Ja, om vi frikopplar det bildmaterial de visat upp från ett påstående om fotorealism så är jag med på "hoppas att spelet är lika grafiskt imponerande som det material de visat upp på förhand"...

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Skrivet av perost:

Problemet med Mantle var att det endast fungerade med (vissa av) AMDs grafikkort, och var därmed dödsdömt redan från början. AMD lade efter något år ned Mantle och donerade det istället till Khronos Group (ansvariga för bl.a. OpenGL), vilket resulterade i den öppna standarden Vulkan som nu används i många spel.

Eftersom nästan inga spel hade stöd för Mantle så valde AMD senare att ta bort stödet för Mantle i drivrutinerna och istället lägga resurserna på Vulkan och DX12.

BF4 har dock vad jag vet aldrig plockat bort stödet för Mantle, så om man av nostalgiska skäl vill köra BF4 med Mantle nu för tiden så kan man använda GRVK som översätter Mantle-anrop till Vulkan.

Tack ska försöka testa detta när jag bygt klart min gamla dator 😊

Visa signatur

Laptop Asus G18 (G814JZ-N6034W)
Intel Core i913980HX 24 st kärnor ((8P 5.6GHz + 16E 2.2GHz) Antal trådar 32 st
Nvidia GeForce RTX 4080 2330 MHz12 GB, TDP 175w
Ram 32 GB, ((2 x 16GB))DDR5 SO-DIMM (4800 MHz)