Följ Black Week på SweClockers

AMD förbättrar prestanda och energieffektivitet med FSR4

Permalänk
Melding Plague

AMD förbättrar prestanda och energieffektivitet med FSR4

Ändringarna väntas ge en bättre upplevelse på handhållna speldatorer.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Riktigt trevligt, blir väll fsr 4 som får nvidia att öppna upp dlss soch sen så småningom gör så att det blir en gemensam standard likt hur det blev med freesync/g-sync.

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av norrby89:

Riktigt trevligt, blir väll fsr 4 som får nvidia att öppna upp dlss soch sen så småningom gör så att det blir en gemensam standard likt hur det blev med freesync/g-sync.

Beror väl på hur bra deras gpuer är på AI beräkningar? Just nu är amd helt värdelöst på konsumentsidan. Framförallt när det blir med mer beräkningar

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Beror väl på hur bra deras gpuer är på AI beräkningar? Just nu är amd helt värdelöst på konsumentsidan. Framförallt när det blir med mer beräkningar

Kanske inte värdelösa, men AMD står sig inte konkurrensmässigt mot Nvidia. AMD är cirka en generation bakom Nvidia på konsumentsidan.

Visa signatur

Vänligen,
Gabe

Permalänk
Medlem
Skrivet av Gabe:

Kanske inte värdelösa, men AMD står sig inte konkurrensmässigt mot Nvidia. AMD är cirka en generation bakom Nvidia på konsumentsidan.

Enligt vilket påhitt?

Permalänk
Medlem
Skrivet av Swedman18:

Enligt vilket påhitt?

På AI är de minst en generation efter?

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

På AI är de minst en generation efter?

Ingen aning hur man "mäter" generationer. Men Nvidia är långt långt före i AI.

Visa signatur

''Man får betala för kvalitet och stabilitet'' //Pantburk 2024.

Permalänk
Medlem

Detta var på tiden, FSR är något utav den sämsta brutal skit som har letat sig in i spelvärlden, skönt att den i och med FSR4 får sig en rejäl uppgradering och vi slipper korning spybild från helvetet.

Dubbel ord
Permalänk
Medlem
Skrivet av Ryzer:

Ingen aning hur man "mäter" generationer. Men Nvidia är långt långt före i AI.

Man brukar mäta vilken nod de är på eller hur många generationer de släppt med en viss kärna, typ cuda.

På konsumentsidan tror jag inte nvidia är lång långt före. Men kanske 1.5-2 gen före.

Det går alltid snabbare att komma ikapp än att drag ifrån (reverse engineering)

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Skrivet av Ryzer:

Ingen aning hur man "mäter" generationer. Men Nvidia är långt långt före i AI.

På konsument-sidan ligger man efter (men inte länge till), medans man inte gör det på enterprise-sidan.

Nvidias H100 SXM är bättre än AMDs MI300X vid mindre batchstorlekar (upp till 128), men när ökar över 128 börjar MI300X visa sina styrkor och vid 256 eller mer kommer MI300X inte bara ikapp utan utklassar H100 SXM.

Inte dåligt för ett företag som omsätter 40 miljarder dollar mindre.

Permalänk
Medlem
Skrivet av norrby89:

Riktigt trevligt, blir väll fsr 4 som får nvidia att öppna upp dlss soch sen så småningom gör så att det blir en gemensam standard likt hur det blev med freesync/g-sync.

Vet inte hur det du beskriver skulle likna hur det blivit med Freesync (snarast VESA Adaptive Sync) och Gsync?

Gsync är ju fortfarande helt låst till Nvidia, men Nvidia lade efter många år till stöd för VESA Adaptive Sync de också.
Det slutresultatet(?) är ju typ motsvarande startläget vi har här, DLSS är helt låst till Nvidia men du kan använda FSR överallt.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av Potato PC:

På konsument-sidan ligger man efter (men inte länge till), medans man inte gör det på enterprise-sidan.

Nvidias H100 SXM är bättre än AMDs MI300X vid mindre batchstorlekar (upp till 128), men när ökar över 128 börjar MI300X visa sina styrkor och vid 256 eller mer kommer MI300X inte bara ikapp utan utklassar H100 SXM.

Inte dåligt för ett företag som omsätter 40 miljarder dollar mindre.

Mi300 är ju dock 1 gen före nvidia? Mi300 bör mätas mot nästa gen nvidia h200 eller vad den heter.
Ren throughput har amd alltid varit bra på, dock är det inte lika smarta på software samt att vara bäst på det som efterfrågas på serversidan.

Mi300 har 192gb vram mot 80 på h100. Problemet för Nvidia är att de oftast får slut på vram på de större testerna

"One of the last and likely most important tests Chips and Cheese conducted was AI inference testing, not only with the MI300X and H100 but with GH200 as well (for one of the tests) — and unlike the low-level testing, the Nvidia GPUs in this case are the faster SXM variants "
https://www.tomshardware.com/pc-components/gpus/amd-mi300x-pe...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Det kommer ju inte en dag för tidigt. Testade FSR 2 i Age of mythology enbart som kantutjämning och det såg riktigt riktigt illa ut

Permalänk
Medlem

Ja ja. Sluta teasa annat, ge mig rykten om 8000-seriens grafikkortet.

Permalänk
Medlem

Tror att detta kan bli riktigt bra. De har just nu en teknik som kan konkurrera helt okej med AI tekniker trots avsaknaden av det. Alltså en väldigt bra grund att fortsätta arbetet med. Gör de detta bra kan det förhoppningsvis bli en höjdare! En pojke kan drömma iallafall.

Visa signatur

Laptop Workstation PC Specialist || Intel 10875H - 250mv & Liquid Metal || Nvidia RTX 2070 883mv @ 1935MHz & Liquid Metal ||64GB Ram || Samsung 970 EVO 2TB + 512GB OEM || 1TB & 512GB External SSD + 2.5TB NAS
Lyssna gärna på mitt band The Mulak Mind
Citera gärna om du vill ha svar!

Permalänk
Medlem

Amd behöver verkligen komma ikapp. Xess och dlss är så otroligt mycket bättre än fsr när det kommer till image quality

Visa signatur

7900xtx och 7800x3d är min setup. Så nu vet ni det om jag kritiserar AMD ibland.

Permalänk
Medlem
Skrivet av Potato PC:

På konsument-sidan ligger man efter (men inte länge till), medans man inte gör det på enterprise-sidan.

Nvidias H100 SXM är bättre än AMDs MI300X vid mindre batchstorlekar (upp till 128), men när ökar över 128 börjar MI300X visa sina styrkor och vid 256 eller mer kommer MI300X inte bara ikapp utan utklassar H100 SXM.

Inte dåligt för ett företag som omsätter 40 miljarder dollar mindre.

Himla konstigt om AMD skulle vara bättre när Nvidia är synonymt med AI-bubblan. Varför har Nvidia vuxit ifrån AMD om AMD är bättre? Låter helt skevt.
Av någon anledning så är Nvidia det näst högst värderade företaget på Börsen. AMD ligger långt där ifrån.

Visa signatur

''Man får betala för kvalitet och stabilitet'' //Pantburk 2024.

Permalänk
Skrivet av Swedishchef_90:

Mi300 är ju dock 1 gen före nvidia? Mi300 bör mätas mot nästa gen nvidia h200 eller vad den heter.
Ren throughput har amd alltid varit bra på, dock är det inte lika smarta på software samt att vara bäst på det som efterfrågas på serversidan.

Mi300 har 192gb vram mot 80 på h100. Problemet för Nvidia är att de oftast får slut på vram på de större testerna

"One of the last and likely most important tests Chips and Cheese conducted was AI inference testing, not only with the MI300X and H100 but with GH200 as well (for one of the tests) — and unlike the low-level testing, the Nvidia GPUs in this case are the faster SXM variants "
https://www.tomshardware.com/pc-components/gpus/amd-mi300x-pe...

Att jämföra Nvidia med AMD (när Nvidia ligger en generation eller så före på konsumentsidan) är tydligen okej då du inte klagat på någon som skrivit att AMD är sämre, men när jag vänder på steken är du snabb med att peka ut det. Inte förvånad dock med tanke på vad du skriver om AMD.

Permalänk
Medlem
Skrivet av Ryzer:

Himla konstigt om AMD skulle vara bättre när Nvidia är synonymt med AI-bubblan. Varför har Nvidia vuxit ifrån AMD om AMD är bättre? Låter helt skevt.
Av någon anledning så är Nvidia det näst högst värderade företaget på Börsen. AMD ligger långt där ifrån.

AMD gör bra hårdvara som på vissa punkter är bättre än Nvidias, det AMD däremot ligger efter en hel del i är när det gäller att underlätta för utvecklare att göra bra implementationer. Nvidia har CUDA som finns i princip överallt och gör det väldigt lätt att använda deras hårdvara för GPGPU, detsamma kan inte sägas om AMDs ROCm just nu.

Visa signatur

Ryzen 7 7800X3D | MSI MAG B650 Tomahawk WiFi | G.Skill Trident Z5 Neo 2x16GB 6000MT/s CL30 | Arctic Liquid Freezer II 360 | Sapphire Nitro+ 7900 XTX | WD Black SN850 2TB + Samsung 860 EVO 2x2TB | Corsair AX1000

Permalänk
Medlem

jag skulle verkligen behöva testa nya mer krävande spel än Diablo 2 Resurrected för att se och testa funktioner men just frame generation tror jag på då kanske inte rätt jämförelse mot SVP4 / smooth video project men det kan verkligen få vissa filmer och spc gammla TV serier ett nytt liv med att skapa fake frames stt gå från 24>48 eller 60 för matcha TVn Hz

Permalänk
Medlem
Skrivet av Potato PC:

Att jämföra Nvidia med AMD (när Nvidia ligger en generation eller så före på konsumentsidan) är tydligen okej då du inte klagat på någon som skrivit att AMD är sämre, men när jag vänder på steken är du snabb med att peka ut det. Inte förvånad dock med tanke på vad du skriver om AMD.

De ligger väl på samma generation? Vad pratar du om....
7000 serien 5nm

4090 5nm

Vad gör att nvidia är en generation före?

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Hårdvarumässigt är de på samma generation. Mjukvarumässigt ligger Nvidia långt före.

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3

Permalänk
Medlem
Skrivet av evil penguin:

Vet inte hur det du beskriver skulle likna hur det blivit med Freesync (snarast VESA Adaptive Sync) och Gsync?

Gsync är ju fortfarande helt låst till Nvidia, men Nvidia lade efter många år till stöd för VESA Adaptive Sync de också.
Det slutresultatet(?) är ju typ motsvarande startläget vi har här, DLSS är helt låst till Nvidia men du kan använda FSR överallt.

Well i början så krävde g-sync dels skärm med specifik mobul och nvidia kort, idag så blir skärmar med g-sync modulerna bara mer och mer sällsynta och "vanliga" g-sync fungerar även med AMD och Intel vilket det inte gjorde från början. Och speciellt nu när dom skippar den dedikerade modulen helt så kommer skillnaden mellan g-sync och FSR försvinna helt mer eller mindre.

Så är nog bara en tidsfråga innan dlss öppnas upp mer och mer om AMD lyckas ordentligt med FSR 4

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av norrby89:

Well i början så krävde g-sync dels skärm med specifik mobul och nvidia kort, idag så blir skärmar med g-sync modulerna bara mer och mer sällsynta och "vanliga" g-sync fungerar även med AMD och Intel vilket det inte gjorde från början. Och speciellt nu när dom skippar den dedikerade modulen helt så kommer skillnaden mellan g-sync och FSR försvinna helt mer eller mindre.

Så är nog bara en tidsfråga innan dlss öppnas upp mer och mer om AMD lyckas ordentligt med FSR 4

När har amd lyckats med mjukvara på första försöket?

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

När har amd lyckats med mjukvara på första försöket?

Skulle dock våga påstå att FSR4 borde vara fjärde försöket?

Permalänk
Medlem

Ser ganska ofta artefakter med FSR2 när jag väl sitter och spelar spelet brukar det sällan störa. Hoppas dock detta verkligen gör FSR lika bra som DLSS, gapet har varit för stort.

Visa signatur

f0rest stan | Citera mera | 5800x, 6700 XT

Permalänk
Medlem

Vilka handhållna kretsar har idag AI? Steam Deck har ju ingen NPU, men det verkar som att Z1 har en liten NPU… kanske det blir avgörande för vem som kan köra denna teknik

Permalänk
Medlem
Skrivet av egbold:

Skulle dock våga påstå att FSR4 borde vara fjärde försöket?

Inte med AI?

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av norrby89:

Well i början så krävde g-sync dels skärm med specifik mobul och nvidia kort, idag så blir skärmar med g-sync modulerna bara mer och mer sällsynta och "vanliga" g-sync fungerar även med AMD och Intel vilket det inte gjorde från början. Och speciellt nu när dom skippar den dedikerade modulen helt så kommer skillnaden mellan g-sync och FSR försvinna helt mer eller mindre.

Så är nog bara en tidsfråga innan dlss öppnas upp mer och mer om AMD lyckas ordentligt med FSR 4

Jag tror du gått på ett PR-trick. Termerna Nvidia använder för olika tekniker:

"G-SYNC ULTIMATE": kräver Gsync-modul, låst till Nvidia
"G-SYNC": kräver Gsync-modul, låst till Nvidia
"G-SYNC Compatible": ingen Nvidia-teknik, bara namnet Nvidia använder för VESA Adaptive Sync (precis som AMD använder namnet Freesync för samma teknik)

Notera den lite lömska namngivningen... "G-SYNC Compatible" är bara ett namn, men namnet är lite designat för att låta som att det är något G-SYNC-kompatibelt. Det är ju i själva verket en helt annan teknik än Gsync; en teknik som inte har något med Gsync att göra och som redan stöddes av både AMD och Intel innan Nvidia hittade på detta namn.

Dvs, det är inte att "vanliga" g-sync fungerar även med AMD och Intel så mycket som att VESA Adaptive Sync, som redan fungerade med AMD och Intel, nu även stöds av Nvidia.

Vad gäller att de kommer sluta med faktiskt Gsync så verkar den här nyheten antyda raka motsatsen: https://www.sweclockers.com/nyhet/39450-snart-far-fler-skarma...
Dvs, ny lösning för Gsync-moduler i samarbete med Mediatek.

Visa signatur

Desktop: Ryzen 5800X3D || MSI X570S Edge Max Wifi || Sapphire Pulse RX 7900 XTX || Gskill Trident Z 3600 64GB || Kingston KC3000 2TB || Samsung 970 EVO Plus 2TB || Samsung 960 Pro 1TB || Fractal Torrent || Asus PG42UQ 4K OLED
Proxmox server: Ryzen 5900X || Asrock Rack X570D4I-2T || Kingston 64GB ECC || WD Red SN700 1TB || Blandning av WD Red / Seagate Ironwolf för lagring || Fractal Node 304

Permalänk
Medlem
Skrivet av norrby89:

Well i början så krävde g-sync dels skärm med specifik mobul och nvidia kort, idag så blir skärmar med g-sync modulerna bara mer och mer sällsynta och "vanliga" g-sync fungerar även med AMD och Intel vilket det inte gjorde från början. Och speciellt nu när dom skippar den dedikerade modulen helt så kommer skillnaden mellan g-sync och FSR försvinna helt mer eller mindre.

Så är nog bara en tidsfråga innan dlss öppnas upp mer och mer om AMD lyckas ordentligt med FSR 4

Så bara för att det blev ett specifikt utfall av någon helt orelaterad teknologi så kommer det bli samma sak med uppskalning. Det låter lite långsökt, vet du ens att FSR4 inklusive AI modeller kommer vara open source?

Nvidia själva säger ju att dom vill utveckla DLSS med massa nya funktioner, det blir ju rätt svårt om man låser ner det i någon standard som flyttar sig i snigelfart. Det var länge sedan vi såg så mycket utveckling i något område som med uppskalning med företag som slåss mot varandra, jag hoppas vi kan fortsätta så. Nu verkar ju AMD vara med på banan också.