SweClockers klassiska musmattor återvänder!

Så kan ett extra grafikkort komma till nytta i spel

Permalänk
Medlem
Skrivet av Arelion:

Jag har snöat in mig totalt på Lossless Scaling och det är helt fantastiskt. Mitt 3090 levererar ca 30 fps i Indiana Jones med full path tracing vilket är, som ni säkert förstår - knappt spelbart. Med lossless scaling har jag låst fps till 30 och kör "X2" dvs 60 fps. Det är minimalt med artefakter, fantastiskt flyt och input delayn känns i princip inte med tanke på att det är ett långsamt spel som spelas med handkontroll.

Vem hade kunnat tro att man kunde "ladda ner" fps?
10/10

P.s. gällande de som har problem med latens så finns det mycket att pilla med i konfigurationsväg. Nvidia REFLEX, låst fps, vsync etc etc.

Har du provat denna?
https://www.nexusmods.com/site/mods/738?tab=description

Visa signatur

CPU: I9 10900KF -Kylare: Arctic Freezer 360 - Moderkort: ASRock Velozita Z590 PG.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3466 MHz Ballistix Elite. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av bobbeyblade:

Åh nej nu behöver jag alltså två 5090, sambon kommer inte gilla det sms-lånet.

Kan inte du ta lånen i stället då?

Visa signatur

gotta go fast

Permalänk
Skrivet av Hipshot:

Kan inte du ta lånen i stället då?

Han är troligen redan blockad pga förra lånet

Men ska prova detta på min laptop när jag har tid.

Skärmen är 16 tum 2560x1440P 165Hz
GPU är 3050 4GB + AMD 660M

Om jag kör DLSS quality (DVS 1080p) och låter 660M sköta uppskalningen (det är ändå den som är kopplad till skärmen) så kanske jag kan få ut 120 FPS med 60FPS respons utan att knäcka laptopen.

Permalänk
Medlem
Skrivet av Whitepilledoomer:

Så, jag kanske kan få användning av den integrerade GPU i min processor? Känns just nu som dött utrymme.

Detta var min första tanke, använda all beräkningskraft i CPUn!!

Sedan började jag leka med tanken att man låter sitt gamla grafikkort sitta kvar när man köper nytt.
Att kunna nyttja både sitt senaste och näst-senaste paralellt skulle vara både kul och praktiskt

Permalänk
Medlem

Tänk vilken grej om man kunde använda sitt gamla kort lite extra länge efter att man köpt ett nytt!

Permalänk
Medlem

Gyllene tillfälle för @Tvelander att åter flexa med signaturen kanske.

Visa signatur

Antagligen en bättre dator än vad du har!

Permalänk
Medlem

Istället för att sälja/skrota sitt gamla grafikkort kan man använde den för sånt här.

Permalänk
Medlem
Skrivet av kaput:

...Virtu MVP från Z77-tiden. Verkade grymt på pappret, men skräp i praktiken. Typ ingenting var kompatibelt med det, och när det väl var det så var det buggigt sönder...

Åh vilken flashback! Hade helt glömt hur jag slet mitt hår innan jag gav upp och inaktiverade det 😅

Visa signatur
Permalänk
Medlem
Skrivet av norrby89:

Känns som något som kommer dö ut innan det blir stort, kolla bara på Physx.

Skrivet av Fearnox:

Vi står inför ett helt annat läge nu än när PhysX fanns. Det fanns också en bra anledning till att Nvidia köpte upp och la ner det projektet, det skulle potentiellt kunnat skada deras försäljning.

Vad snackar ni om? Physx är ju här idag, lever vidare genom Nvidia och används massor i dagens spel.

Skrivet av underd0g76:

Hade hellre sett att man slapp scaling och att spelen renderades i den upplösning man valt i en godtagbar framerate. Men det innebär väl att utvecklarna måste optimisera mera och det kostar pengar som gör sig bättre i ägarnas fickor.

Menar du "optimera"?

Visa signatur

Kontor MacBook Pro 16" M4 Pro, 48GB, 512GB, Predator X38, TB4 dock
UHD ProArt 4070TiS, i5-13600K (U12A), 32GB 3200, Prime Z790 mATX, 2xNVMe, Prime 650 Platinum, Torrent Compact
QHD 1080Ti, i5-8400, ROG B360 mATX, 16GB, 2xSSD, 750W PSU, nåt Fractal-chassi

Permalänk
Medlem
Skrivet av Tangentbord:

Åh vilken flashback! Hade helt glömt hur jag slet mitt hår innan jag gav upp och inaktiverade det 😅

Haha, sorry att jag påminde dig

Minns hur hypad man var på det, fan viken bra grej liksom, och så var det en sådan totalbesvikelse när man väl provade på det...

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Medlem
Skrivet av mar3ld:

Vad snackar ni om? Physx är ju här idag, lever vidare genom Nvidia och används massor i dagens spel.

Nu menar jag såklart delen med antingen dedikerat physx kort alternativt köra det på en sekundär gpu. Självklart så används det än idag men bara som en del av spelet som körs på samma gpu som allt annat.

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av mar3ld:

Vad snackar ni om? Physx är ju här idag, lever vidare genom Nvidia och används massor i dagens spel.

Menar du "optimera"?

Ah, ja, "svengelska" slår till igen.

Permalänk
Medlem
Skrivet av norrby89:

Nu menar jag såklart delen med antingen dedikerat physx kort alternativt köra det på en sekundär gpu. Självklart så används det än idag men bara som en del av spelet som körs på samma gpu som allt annat.

Nja, alltså stödjer ett spel GPU-accelerad PhysX så går det fortfarande att köra på ett dedikerat grafikkort, oavsett.

Grejen är dock att det finns flera spel och spelmotorer som bara använder PhysX fysikmotorn, utan hårdvaruaccelerering.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Quizmästare Gävle 2022
Skrivet av Mindfighter:

Från tid till annan har vi ju haft det
Först sli med 3dfx kort
Sen kunde man ha sin gamla gpu kvar för physx beräkningar
Sen gjorde sli comeback och crossfire

Kanske dags igen nu då? Problemet är väl utvecklingstakten, rätt snart blir ett single kort lika eller mer effektivt igen och det är enklare att utveckla för, än att behöva sprida lasten så jag killgissar att det är utvecklarna som styr tillbaka till single-kort hela tiden.

Precis, voodoo2 var ju paradexemplet. Med två kort blev det snabbare och man fick möjligheten att köra högre upplösning. Crossfire och Nvidia SLI fungerade väl sådär, som jag minns det.
Intresset borde vara hyfsat från tillverkarna att få fram skalbar teknik, av flera skäl men förmodligen är det inte helt enkelt att få bra resultat…. Å andra sidan är man redan inne på spåret att ”fuska” fram frames med tillförd latency och andra kompromisser så det kanske måste öppnas upp för fler kompromisser för att komma framåt? Kan man göra det och samtidigt kränga fler kort så…. I en framtid kanske.

Vad vet jag..

Visa signatur