SweClockers klassiska musmattor återvänder!

Så kan ett extra grafikkort komma till nytta i spel

Permalänk
Melding Plague

Så kan ett extra grafikkort komma till nytta i spel

Lossless Scaling kan generera bildrutor på ett separat grafikkort.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Jag trodde det aldrig men bevisligen så har SLI återvänt 😅

Permalänk

Så, jag kanske kan få användning av den integrerade GPU i min processor? Känns just nu som dött utrymme.

Permalänk
Medlem

Intressant för oss fattiga som inte ha råd med det senaste i grafikkort..

Visa signatur

Låda thermaltake view 91 M-kort ASUS X399 ROG Zenith Extreme CPU AMD Ryzen Threadripper 1920X 3.5 GHz Kylning Hemma byggd vattenkylning 2 x 480mm + 1 x 420mm radiatorer Minne 8 X 16Gb DDR4 HD SSD 240GB OCZ Trion 100 Grafik Gigabyte Geforce RTX 3080 10GB GAMING OC WATERFORCE WB AGG Corsair RM 1000w 80+ Gold Skärm ASUS 43" ROG Strix XG438QR 4K VA HDR 120 Hz

Permalänk
Medlem

Vore ju kul om det funkade, det har alltid stört mig att IGPU:n bara är där utan att göra någon nytta om man har ett diskret kort i burken. Minns dock hur det var med Virtu MVP från Z77-tiden. Verkade grymt på pappret, men skräp i praktiken. Typ ingenting var kompatibelt med det, och när det väl var det så var det buggigt sönder.

Hoppas man lyckas bättre denna gång, särskilt som IGPU:erna har blivit riktigt kompetenta i de senare generationerna

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Quizmästare Gävle 2022

Egentligen är det väl lite märkligt att ingen av tillverkarna satsar på teknik som skalar på flera grafikkort. Det borde gynnat försäljningen!
Förstår att det kan finnas tekniska hinder som håller det tillbaka men ökad möjlighet till större volymer och mer intäkter brukar kunna övervinna många hinder….

Visa signatur
Permalänk
Medlem
Skrivet av Trigger:

Egentligen är det väl lite märkligt att ingen av tillverkarna satsar på teknik som skalar på flera grafikkort. Det borde gynnat försäljningen!

Från tid till annan har vi ju haft det
Först sli med 3dfx kort
Sen kunde man ha sin gamla gpu kvar för physx beräkningar
Sen gjorde sli comeback och crossfire

Kanske dags igen nu då? Problemet är väl utvecklingstakten, rätt snart blir ett single kort lika eller mer effektivt igen och det är enklare att utveckla för, än att behöva sprida lasten så jag killgissar att det är utvecklarna som styr tillbaka till single-kort hela tiden.

Visa signatur

Amd o Apple

Permalänk
Medlem

Känns som något som kommer dö ut innan det blir stort, kolla bara på Physx.

Sen angående bildgenerering så sure 1 extra frame kan jag förstå men flera än så kommer nog inte bli en trevlig upplevelse förutom i ett fåtal spel typ MS flight sim men där spelar det även ingen direkt roll om man spelar med 40 fps häller så.

Visa signatur

here we go!

Permalänk
Medlem

Jag har lekt lite med lossless scaling på en gammal dator, men tyckte det tog för mycket kraft för att vara värt, men jag har haft massa SLI system genom tiden så detta måste prövas!

Visa signatur

|| AMD 5900x || ASUS ROG Formula VIII || 2x ASUS GTX 980 SLI || 32GB G-Skill || Vattenkylt || HDD : SSD’er || Skärm : LG42" SL8500 / Acer G24 ||

Permalänk
Medlem
Skrivet av Trigger:

Egentligen är det väl lite märkligt att ingen av tillverkarna satsar på teknik som skalar på flera grafikkort. Det borde gynnat försäljningen!
Förstår att det kan finnas tekniska hinder som håller det tillbaka men ökad möjlighet till större volymer och mer intäkter brukar kunna övervinna många hinder….

Problemet är väl att grafikkorten är såpass bra idag. Att lägga till stöd för två grafikkort känns oprioriterat med tanke på hur många användare som skulle använda det, man klarar ju FFS inte ens att lägga till vettiga stöd för extra breda skärmar vilket borde vara betydligt enklare och prioriterat.

Permalänk
Medlem
Skrivet av Trigger:

Egentligen är det väl lite märkligt att ingen av tillverkarna satsar på teknik som skalar på flera grafikkort. Det borde gynnat försäljningen!
Förstår att det kan finnas tekniska hinder som håller det tillbaka men ökad möjlighet till större volymer och mer intäkter brukar kunna övervinna många hinder….

Det var inte utvecklarna som bara slutade. Det var kunder som slutade köpa, dels för att trots alla satsningar så var det nära på omöjligt att få jämn frame pacing med bibehållen vinst i framerate, och dels för att dyrare utveckling gjorde att grafikkort blev för dyra.

I en tid då ett grafikkort för 1500:- var hälften så snabbt som ett flaggskepp för 5000:- så kunde SLI/CF vara värt med två billigare kort.

Men med dagens pristrappa där billigare kort knuffats uppåt så är priset per fps mindre exponentiell utan mer linjär. Du hade inte fått högre prestanda per krona med två 4060 än med ett 4080, eller med två 4080 än ett 4090. Lägg på större kostnader för starkare PSU på det. Och marknaden för två 4090 är sjukt liten.

Hade de erbjudit SLI hade du ändå inte köpt det helt enkelt.

Permalänk
Medlem

Åh nej nu behöver jag alltså två 5090, sambon kommer inte gilla det sms-lånet.

Visa signatur

Modermodem: Asus ROG Strix X470-F
Grafikkort: XFX Speedster MERC 319 AMD Radeon™ RX 6800 BLACK
Processor: AMD 2600X
Minne: 48 GB

Permalänk
Medlem

Jag kör faktiskt detta med mitt Geforce 4080 då ARK Survival Ascended är så otroligt dåligt optimerat. Denna lilla guldklimp räddar mitt lidande i ark.

Permalänk
Medlem

Körde sli till och med gtx 970. Sen dog det. Va ett ok sätt att uppgradera på.

Har en laptop med dubbla 980m så det bore ju kul om man hade kunnat utnyttja både gpuer för skojs skull.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Gaminglaptop. 13700H, 32Gb RAM, RTX 4070, 4Tb SSD.

Permalänk
Musikälskare
Skrivet av Aleshi:

Det var inte utvecklarna som bara slutade. Det var kunder som slutade köpa, dels för att trots alla satsningar så var det nära på omöjligt att få jämn frame pacing med bibehållen vinst i framerate, och dels för att dyrare utveckling gjorde att grafikkort blev för dyra.

I en tid då ett grafikkort för 1500:- var hälften så snabbt som ett flaggskepp för 5000:- så kunde SLI/CF vara värt med två billigare kort.

Men med dagens pristrappa där billigare kort knuffats uppåt så är priset per fps mindre exponentiell utan mer linjär. Du hade inte fått högre prestanda per krona med två 4060 än med ett 4080, eller med två 4080 än ett 4090. Lägg på större kostnader för starkare PSU på det. Och marknaden för två 4090 är sjukt liten.

Hade de erbjudit SLI hade du ändå inte köpt det helt enkelt.

Ja jo jag vet men... SLI är coolt, jag vill ha 4 kort

Visa signatur

❀ Monitor: ASUS Swift 27" @ 1440p/165Hz ❀ CPU: Ryzen 7700X ❀ Cooling: Corsair H170i ELITE 420mm ❀ GPU: MSI 3080 Ti SUPRIM X ❀ Memory: Corsair 32GB 6000Mhz DDR5 Dominator ❀ Motherboard: ASUS Crosshair X670E Hero ❀ M.2: Samsung 980 Pro ❀ PSU: Corsair HX1200 ❀ Chassi: Corsair 7000X ❀ Time Spy: 19 340

📷 Mina fotografier
🎧 Vad lyssnar du på just nu?

Permalänk
Medlem
Skrivet av flashen:

Ja jo jag vet men... SLI är coolt, jag vill ha 4 kort

https://i.imgur.com/7nrfmRI.png

4st 5080 för rimliga 60 000kr xD

Visa signatur

here we go!

Permalänk
Medlem

Hade hellre sett att man slapp scaling och att spelen renderades i den upplösning man valt i en godtagbar framerate. Men det innebär väl att utvecklarna måste optimisera optimera mera och det kostar pengar som gör sig bättre i ägarnas fickor.

inverterad svengelska
Permalänk
Medlem

Minns när jag håll på att prova PhysX med ett gammalt grafikkort för 15 år sen eller något, försökte även köra SLI samtidigt så hade 3 grafikkort i datorn.
På gott och ont är det enklare tider nu.

Visa signatur

Desktop: Corsair Carbide 400C | 3770K@4.4GHz | RX 6700 XT | 32GB DDR3 | RM750X | P8Z77-V Deluxe | 860 EVO 1TB
HTPC/Server: FD Array R2 | Intel i5-650 | Zotac 1156 mini-ITX H55 | 8GB DDR3 | 5st WD RED 3TB RAID 5

Permalänk
Medlem

Undrar hur det går med latency'n??
Click-to-photon

Visa signatur

42? Seven and a half million years and all you can come up with is 42?!
► FD Define R2 | Win10Pro | i7-3770K | Hyper212+ SP120PWM | P8P67 PRO | CML8GX3M2A1600C9 | 1080 Ti | AX750 | Asus VG27WQ | HP Z27n |► Realme GT Master |

Permalänk
Medlem

Som nämns i artikeln är det väl lysande för laptop, där är det ju svårt att uppgradera grafikkortet så kul att kunna kräma ur all tänkbar prestanda ur det som finns.

Permalänk
Medlem
Visa signatur

*5800X|B550M|64GB|RTX2080S|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Gigabyte Windforce OC @Stock|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Medlem
Skrivet av Trigger:

Egentligen är det väl lite märkligt att ingen av tillverkarna satsar på teknik som skalar på flera grafikkort. Det borde gynnat försäljningen!
Förstår att det kan finnas tekniska hinder som håller det tillbaka men ökad möjlighet till större volymer och mer intäkter brukar kunna övervinna många hinder….

Skrivet av norrby89:

Känns som något som kommer dö ut innan det blir stort, kolla bara på Physx.

Sen angående bildgenerering så sure 1 extra frame kan jag förstå men flera än så kommer nog inte bli en trevlig upplevelse förutom i ett fåtal spel typ MS flight sim men där spelar det även ingen direkt roll om man spelar med 40 fps häller så.

Vi står inför ett helt annat läge nu än när PhysX fanns. Det fanns också en bra anledning till att Nvidia köpte upp och la ner det projektet, det skulle potentiellt kunnat skada deras försäljning.

Jag tror helt klart på att vi måste börja lägga till mer kretsar framöver, det är redan nu väldigt svårt att få positiv prisutveckling på kretsar så att flera svagare kretsar tillsammans med en stark kanske är ett alternativ. Vi har ju sedan gammalt krets för Ljud, nätverk etc. PS5 har väl också specialdesignad separat krets för komprimering av data vilket sparar på CPU när speldata ska streamas från lagringen.

Krets för fakeframes, fysik och AI skulle säkert kunna separeras framöver. Reaktionsförmågan för tillexempel NPC eller röstkommandon i spel eller i operativsystemet kanske inte behöver ha en extremt låg responstid såsom andra delar av spelmotorn behöver och således inte behöver hanteras av huvudkretsen. En fysikmotor kanske inte heller behöver uppdateras i samma hastighet som tillexempel spelarens input eller FPS.

Att RTX5080 förmodligen får sämre pris/prestanda än 4080 Super borde vara ett tecken på att någon förändring behöver ske rätt snart. Direct storage, Work Graphs: mesh nodes med mera kan nog säkert hjälpa en hel del framöver, men något behöver nog göras på hårdvarusidan också.

Permalänk
Medlem
Skrivet av Fearnox:

Vi står inför ett helt annat läge nu än när PhysX fanns. Det fanns också en bra anledning till att Nvidia köpte upp och la ner det projektet, det skulle potentiellt kunnat skada deras försäljning.

Jag tror helt klart på att vi måste börja lägga till mer kretsar framöver, det är redan nu väldigt svårt att få positiv prisutveckling på kretsar så att flera svagare kretsar tillsammans med en stark kanske är ett alternativ. Vi har ju sedan gammalt krets för Ljud, nätverk etc. PS5 har väl också specialdesignad separat krets för komprimering av data vilket sparar på CPU när speldata ska streamas från lagringen.

Krets för fakeframes, fysik och AI skulle säkert kunna separeras framöver. Reaktionsförmågan för tillexempel NPC eller röstkommandon i spel eller i operativsystemet kanske inte behöver ha en extremt låg responstid såsom andra delar av spelmotorn behöver och således inte behöver hanteras av huvudkretsen. En fysikmotor kanske inte heller behöver uppdateras i samma hastighet som tillexempel spelarens input eller FPS.

Att RTX5080 förmodligen får sämre pris/prestanda än 4080 Super borde vara ett tecken på att någon förändring behöver ske rätt snart. Direct storage, Work Graphs: mesh nodes med mera kan nog säkert hjälpa en hel del framöver, men något behöver nog göras på hårdvarusidan också.

Kan nog hålla med dig delvis, ai på separat kort kan nog med stor chans bli stort på separat kort. Men tror inte för frame gen, dlss och liknande utan snarare i sånt fall i form av npc generering, att i ett spel faktiskt kunna prata med npc's.

Kanske även uppskalning till viss del men frame gen tvivlar jag på att det kommer komma så mycket längre än 1 riktigt frame och en genererad.

Visa signatur

here we go!

Permalänk
Medlem

Finns en del väldigt bra funktioner med detta. De kort som fungerar bäst till själva skalningen är AMD's och Intels kort.
Så om du har ett bra kort till själva spelet och ett RX 6600, 6700 eller Intels Arc så blir "kostnaden" av fps väldigt liten, och latens är klart mindre än med bara ett kort.
En annan grej är ju efter sista skrik av nya framegen som är låst till RTX 5000 är att du kan köra vanlig framegen i de spel som har det, och 2X framegen med lossless. Med ett kort, 4090, klarar jag att hålla 120fps i 4K Cyberpunk psycho settings. Med transformer DLSS ser det riktigt bra ut. Hade jag haft ett Arc som sekundärt kort, tror jag 144fps är inom räckhåll.
I spel som wow och story-based rpg's och liknande är Lossless Scaling ett helt otroligt verktyg för $7 på Steam.
LS ger mig också möjligheten att spela in videos i 120fps på ett sätt som knappt var möjligt innan i actionspel.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--Asrock Z790i--2X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B

Permalänk

Jag testade själv lossless scaling för några månader sedan och stod inte ut många minuter, jag klarade inte av input lagget, som att spela på en skärm med 50ms fördröjning

Visa signatur

AMD Ryzen 5700X3D | ASUS Rog Strix X570-F | WD Black SN850 1TB | 32GB | 4070 Ti Super | Fractal Design Meshify C TG | Windows 11
LG 48GQ900 | Qpad 8K | Varmilo VA88M

Permalänk
Medlem
Skrivet av Tyrken:

Problemet är väl att grafikkorten är såpass bra idag. Att lägga till stöd för två grafikkort känns oprioriterat med tanke på hur många användare som skulle använda det, man klarar ju FFS inte ens att lägga till vettiga stöd för extra breda skärmar vilket borde vara betydligt enklare och prioriterat.

Nja, sanning med modifikation.

Visserligen är grafikkort "såpass bra", men till vilket pris? De slukar ju alldeles enorma mängder ström, där vi rentav är vid en punkt där ett RTX 5090 slukar mer ström än två stycken RTX Titan-kort. Det är väldigt uppenbart att dagens prestanda är till stor del brute-force:ad.

Hela poängen med SLI har ju handlat om skalbarhet i prestanda såväl som kostnad och energiförbrukning.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem

Helt underbart program som gett nytt liv till många spel (och fungerar fint till video med via vlc/chrome etc)!

Gjorde nyss en test där jag spelar ett spel låst till 20fps med 3x FG via lossless scaling och det fungerade över förväntan. Rekommenderar dock 60fps eller mer som bas fps.

Visa signatur

AMD Ryzen 5600X, 4x8GB@3600MHz Crucial DDR4,MSI MAG X570 TOMAHAWK-WIFI & Intel ARC B580

Permalänk
Medlem

Har programmet från Steam sedan det kom, blir att stoppa i ett 1030 när man orkar å testa å se om något händer LOL
edit: såg nu 1030 duger nog absolut inte haha

Permalänk
Medlem
Skrivet av Diablo_Lino:

Jag testade själv lossless scaling för några månader sedan och stod inte ut många minuter, jag klarade inte av input lagget, som att spela på en skärm med 50ms fördröjning

Ja det var min första tanke, att visst om man låter ett annat grafikkort sköta framegenererandet för att det inte ska bli lika tungt för main-grafikkortet, men iom att pixlarna ska skyfflas över till ett annan grafikkort som sen ska interpolera fram fler frames på icke-dedikerad hårdvara så skulle det inte förvåna mig om inputlagget ökar ännu mer än vad DLSS framegen gör.
(Möjligt att det svaras på just det i videon om man har tid att kolla igenom den)

Permalänk
Medlem

Jag har snöat in mig totalt på Lossless Scaling och det är helt fantastiskt. Mitt 3090 levererar ca 30 fps i Indiana Jones med full path tracing vilket är, som ni säkert förstår - knappt spelbart. Med lossless scaling har jag låst fps till 30 och kör "X2" dvs 60 fps. Det är minimalt med artefakter, fantastiskt flyt och input delayn känns i princip inte med tanke på att det är ett långsamt spel som spelas med handkontroll.

Vem hade kunnat tro att man kunde "ladda ner" fps?
10/10

P.s. gällande de som har problem med latens så finns det mycket att pilla med i konfigurationsväg. Nvidia REFLEX, låst fps, vsync etc etc.