Så kan ett extra grafikkort komma till nytta i spel

Permalänk
Medlem
Skrivet av Arelion:

Jag har snöat in mig totalt på Lossless Scaling och det är helt fantastiskt. Mitt 3090 levererar ca 30 fps i Indiana Jones med full path tracing vilket är, som ni säkert förstår - knappt spelbart. Med lossless scaling har jag låst fps till 30 och kör "X2" dvs 60 fps. Det är minimalt med artefakter, fantastiskt flyt och input delayn känns i princip inte med tanke på att det är ett långsamt spel som spelas med handkontroll.

Vem hade kunnat tro att man kunde "ladda ner" fps?
10/10

P.s. gällande de som har problem med latens så finns det mycket att pilla med i konfigurationsväg. Nvidia REFLEX, låst fps, vsync etc etc.

Har du provat denna?
https://www.nexusmods.com/site/mods/738?tab=description

Visa signatur

CPU: I9 10900KF -Kylare: Arctic Freezer 360 - Moderkort: ASRock Velozita Z590 PG.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3466 MHz Ballistix Elite. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av bobbeyblade:

Åh nej nu behöver jag alltså två 5090, sambon kommer inte gilla det sms-lånet.

Kan inte du ta lånen i stället då?

Visa signatur

gotta go fast

Permalänk
Skrivet av Hipshot:

Kan inte du ta lånen i stället då?

Han är troligen redan blockad pga förra lånet

Men ska prova detta på min laptop när jag har tid.

Skärmen är 16 tum 2560x1440P 165Hz
GPU är 3050 4GB + AMD 660M

Om jag kör DLSS quality (DVS 1080p) och låter 660M sköta uppskalningen (det är ändå den som är kopplad till skärmen) så kanske jag kan få ut 120 FPS med 60FPS respons utan att knäcka laptopen.

Permalänk
Medlem
Skrivet av Whitepilledoomer:

Så, jag kanske kan få användning av den integrerade GPU i min processor? Känns just nu som dött utrymme.

Detta var min första tanke, använda all beräkningskraft i CPUn!!

Sedan började jag leka med tanken att man låter sitt gamla grafikkort sitta kvar när man köper nytt.
Att kunna nyttja både sitt senaste och näst-senaste paralellt skulle vara både kul och praktiskt

Permalänk
Medlem

Tänk vilken grej om man kunde använda sitt gamla kort lite extra länge efter att man köpt ett nytt!

Permalänk
Medlem

Gyllene tillfälle för @Tvelander att åter flexa med signaturen kanske.

Visa signatur

Antagligen en bättre dator än vad du har!

Permalänk
Medlem

Istället för att sälja/skrota sitt gamla grafikkort kan man använde den för sånt här.

Permalänk
Medlem
Skrivet av kaput:

...Virtu MVP från Z77-tiden. Verkade grymt på pappret, men skräp i praktiken. Typ ingenting var kompatibelt med det, och när det väl var det så var det buggigt sönder...

Åh vilken flashback! Hade helt glömt hur jag slet mitt hår innan jag gav upp och inaktiverade det 😅

Visa signatur
Permalänk
Medlem
Skrivet av norrby89:

Känns som något som kommer dö ut innan det blir stort, kolla bara på Physx.

Skrivet av Fearnox:

Vi står inför ett helt annat läge nu än när PhysX fanns. Det fanns också en bra anledning till att Nvidia köpte upp och la ner det projektet, det skulle potentiellt kunnat skada deras försäljning.

Vad snackar ni om? Physx är ju här idag, lever vidare genom Nvidia och används massor i dagens spel.

Skrivet av underd0g76:

Hade hellre sett att man slapp scaling och att spelen renderades i den upplösning man valt i en godtagbar framerate. Men det innebär väl att utvecklarna måste optimisera mera och det kostar pengar som gör sig bättre i ägarnas fickor.

Menar du "optimera"?

Visa signatur

Kontor MacBook Pro 16" M4 Pro, 48GB, 512GB, Predator X38, TB4 dock
UHD ProArt 4070TiS, i5-13600K (U12A), 32GB 3200, Prime Z790 mATX, 2xNVMe, Prime 650 Platinum, Torrent Compact
QHD 1080Ti, i5-8400, ROG B360 mATX, 16GB, 2xSSD, 750W PSU, nåt Fractal-chassi

Permalänk
Medlem
Skrivet av Tangentbord:

Åh vilken flashback! Hade helt glömt hur jag slet mitt hår innan jag gav upp och inaktiverade det 😅

Haha, sorry att jag påminde dig

Minns hur hypad man var på det, fan viken bra grej liksom, och så var det en sådan totalbesvikelse när man väl provade på det...

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Medlem
Skrivet av mar3ld:

Vad snackar ni om? Physx är ju här idag, lever vidare genom Nvidia och används massor i dagens spel.

Nu menar jag såklart delen med antingen dedikerat physx kort alternativt köra det på en sekundär gpu. Självklart så används det än idag men bara som en del av spelet som körs på samma gpu som allt annat.

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av mar3ld:

Vad snackar ni om? Physx är ju här idag, lever vidare genom Nvidia och används massor i dagens spel.

Menar du "optimera"?

Ah, ja, "svengelska" slår till igen.

Permalänk
Medlem
Skrivet av norrby89:

Nu menar jag såklart delen med antingen dedikerat physx kort alternativt köra det på en sekundär gpu. Självklart så används det än idag men bara som en del av spelet som körs på samma gpu som allt annat.

Nja, alltså stödjer ett spel GPU-accelerad PhysX så går det fortfarande att köra på ett dedikerat grafikkort, oavsett.

Grejen är dock att det finns flera spel och spelmotorer som bara använder PhysX fysikmotorn, utan hårdvaruaccelerering.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Quizmästare Gävle 2022
Skrivet av Mindfighter:

Från tid till annan har vi ju haft det
Först sli med 3dfx kort
Sen kunde man ha sin gamla gpu kvar för physx beräkningar
Sen gjorde sli comeback och crossfire

Kanske dags igen nu då? Problemet är väl utvecklingstakten, rätt snart blir ett single kort lika eller mer effektivt igen och det är enklare att utveckla för, än att behöva sprida lasten så jag killgissar att det är utvecklarna som styr tillbaka till single-kort hela tiden.

Precis, voodoo2 var ju paradexemplet. Med två kort blev det snabbare och man fick möjligheten att köra högre upplösning. Crossfire och Nvidia SLI fungerade väl sådär, som jag minns det.
Intresset borde vara hyfsat från tillverkarna att få fram skalbar teknik, av flera skäl men förmodligen är det inte helt enkelt att få bra resultat…. Å andra sidan är man redan inne på spåret att ”fuska” fram frames med tillförd latency och andra kompromisser så det kanske måste öppnas upp för fler kompromisser för att komma framåt? Kan man göra det och samtidigt kränga fler kort så…. I en framtid kanske.

Vad vet jag..

Visa signatur
Permalänk
Medlem

Borde inte problemen bli dom exakt samma som med SLI, men mycket värre?
Dvs framepacing problem och stutters.
Även om man hade 2 exakt likadana kort kopplade med en höghastighetsbrygga så hade man dessa problem.
Här ska man blanda en (mycket troligt detta scenario) sämre GPU med en bättre, och då känns det som att dom problemen kommer bli ännu värre, för den snabba gpun kan spotta ut frames betydligt snabbare än den "slöa".

Visa signatur

Citera för svar!

Permalänk
Medlem
Skrivet av norrby89:

Kan nog hålla med dig delvis, ai på separat kort kan nog med stor chans bli stort på separat kort. Men tror inte för frame gen, dlss och liknande utan snarare i sånt fall i form av npc generering, att i ett spel faktiskt kunna prata med npc's.

Kanske även uppskalning till viss del men frame gen tvivlar jag på att det kommer komma så mycket längre än 1 riktigt frame och en genererad.

Detta var min tanke också angående NPC/AI i själva spelmekaniken, känns som en beräkningsdel som skulle kunna separeras ut mycket enklare ifall ett separat grafikkort finns i systemet. Sen finns det väl andra problem med detta, har svårt att tänka mig spel där AI:n i själva spelmekaniken/"NPC beteenden etc" skalar och blir bättre med mer beräkningskraft likt framerate. Detta måste nog vara en förutbestämd och fix beräkningsmängd som fungerar även med ett medel-grafikkort och därmed inte får stjäla så mycket kraft ändå.

Permalänk
Medlem

låter lite som när man hade ett extra kort bara för PhysX - nu blir det för FG.

Måste testa. Borde funka med 3070+ 1050ti?

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

Jamen finns det drivrutiner och inställningar för det här i t.ex. Catalyst och Geforce Now för normala användare eller är det väldigt avancerat och kräver ingående specialkunskaper för att gå att använda?

stavfel
Permalänk
Skrivet av Niolator:

Jamen finns det drivrutiner och inställningar för det här i t.ex. Catalyst och Geforce Now för normala användare eller är det väldigt avancerat och kräver ingående specialkunskaper för att gå att använda?

https://www.youtube.com/watch?v=NsEzqRLtr4s Den gav mig bra insikt i programet. Ska prova själv idag med Generation Zero. Tungdrivet med 38" 3840x1600 skärm på ett 1070 kort

Visa signatur

▂▃▄▅▆▇█▓▒░ -= In Trance We Trust =- ░▒▓█▇▆▅▄▃▂
38" LG 38GN950 | Intel i7 8086K Limited Edition | 32GB 3600DDR4 | GTX 1070 8GB | 2x1TB WD BLACK SN750 / 2x500GB 850 EVO | AUDIO PRO T8 ADDON

Permalänk
Medlem

Frame Generation borde man ju utan problem köra på en separat GPU om bara någon löser drivrutiner för det, men det bör skapa viss latens såklart

Permalänk
Medlem

Smart användning av lossless...

Det enda bra tillämpningen jag hittat med en gpu är att köra det på t.ex. youtube-videor för att se klipp i 120 fps (eller mer).

Fler frames är alltid bättre i min smak när det gäller film, men jag vet att det inte är alla som håller med.

Visa signatur

Gigabyte RTX 3070 | Samsung 980 | AMD 5950x
32GB 3600MHz CL14 | Corsair RM850X | ASUS ROG CROSSHAIR VIII DARK HERO
Skärm: Acer 27" ConceptD CP3271KP IPS 4K HDR 144 hz

Skriv gärna ett svar om ditt problem löste sig.

Permalänk
Medlem

Har kört Lossless scaling i ett års tid på ett 3090 som saknar frame doubleling. Det funkar i vissa spel som är dåligt optimerade som Star Citizen och Gray Zone. Det krävs ju en hel del att köra i 4k som alla vet. Men det är ingen höjdare i spel där låg latens är jätteviktigt. Och sen är det är lite finurligt att konfigurera. Även om man ser fpsen som overlay betyder det inte att det verkligen fungerar. Tips är att starta spelen i lägre än native upplösning som borderless window och sedan scala med programmet. Så vips blir det helskärm med 2x fps eller ännu mer.

Permalänk
Medlem
Skrivet av thom.g:

Smart användning av lossless...

Det enda bra tillämpningen jag hittat med en gpu är att köra det på t.ex. youtube-videor för att se klipp i 120 fps (eller mer).

Fler frames är alltid bättre i min smak när det gäller film, men jag vet att det inte är alla som håller med.

Om man har mer än en skärm kan man assigna browsern, discord och videospelare att köras på processorns igpu eller en ytterligare separat gpu än den primära. Det funkar utmärkt om man vill kolla på video med hårdvaru 3d acceleration samtidigt som man spelar ett spel utan att ta beräkningskraft från grafikkortet som spelet körs på.

Permalänk
Medlem
Skrivet av Omnious:

Om man har mer än en skärm kan man assigna browsern, discord och videospelare att köras på processorns igpu eller en ytterligare separat gpu än den primära. Det funkar utmärkt om man vill kolla på video med hårdvaru 3d acceleration samtidigt som man spelar ett spel utan att ta beräkningskraft från grafikkortet som spelet körs på.

Jag är man så jag klarar inte av att göra två saker samtidigt :), och jag har bara en skärm.
Men bra tips iaf.

Visa signatur

Gigabyte RTX 3070 | Samsung 980 | AMD 5950x
32GB 3600MHz CL14 | Corsair RM850X | ASUS ROG CROSSHAIR VIII DARK HERO
Skärm: Acer 27" ConceptD CP3271KP IPS 4K HDR 144 hz

Skriv gärna ett svar om ditt problem löste sig.