Specifikationer läcker för Intel Arc B580 Battlemage

Permalänk
Melding Plague

Specifikationer läcker för Intel Arc B580 Battlemage

Asrock Arc B580 Steel Legend dök upp på Amazon men är nu borttaget.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

770 var ju bäst förut verkar konstigt att gå till 580. Låter mer som en mellanmodell. 12GB är dessutom mindre än de 16 som 770 kan ha.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem
Skrivet av dagas:

770 var ju bäst förut verkar konstigt att gå till 580. Låter mer som en mellanmodell. 12GB är dessutom mindre än de 16 som 770 kan ha.

Det var precis så jag tänkte jag med. B770 eller B750 borde det minst handla om, kanske till och med B8xx

Permalänk
Medlem
Skrivet av dagas:

770 var ju bäst förut verkar konstigt att gå till 580. Låter mer som en mellanmodell. 12GB är dessutom mindre än de 16 som 770 kan ha.

Skrivet av medbor:

Det var precis så jag tänkte jag med. B770 eller B750 borde det minst handla om, kanske till och med B8xx

Ja, A580 fanns också. det är alltså mellansegmentskort som läckt ut. inte konstigare än så.
Sen kan det ju vara att dom kanske nöjer sig med dom korten eller att det kommer 700 serien också.
Det är ju fullt möjligt att B580 presterar bättre än gamla A770.

Om inget annat kan man se fram emot mellansegmentskort som inte hålls tillbaka av snåla mängder ram, 12gb är fräscht att se på den prisklassen det anas om.
(A580 $179 usd så B580 på svenska marknaden ~3000 kr kanske, allt i den prisklassen annars är ju 8gb som högst.)

Jag har rätt stor hype på battlemage ...

Visa signatur

Xeon E5450@3.2ghz
9800GTX+

Permalänk
Medlem
Skrivet av GizmoTheGreen:

Ja, A580 fanns också. det är alltså mellansegmentskort som läckt ut. inte konstigare än så.
Sen kan det ju vara att dom kanske nöjer sig med dom korten eller att det kommer 700 serien också.
Det är ju fullt möjligt att B580 presterar bättre än gamla A770.

Om inget annat kan man se fram emot mellansegmentskort som inte hålls tillbaka av snåla mängder ram, 12gb är fräscht att se på den prisklassen det anas om.
(A580 $179 usd så B580 på svenska marknaden ~3000 kr kanske, allt i den prisklassen annars är ju 8gb som högst.)

Jag har rätt stor hype på battlemage ...

Det enda som står mellan succée och katastrof är ju deras drivers.
I syntetiska tester så var ju faktiskt Intel riktigt vettigt... (med tanke på Specs)

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Det enda som står mellan succée och katastrof är ju deras drivers.
I syntetiska tester så var ju faktiskt Intel riktigt vettigt... (med tanke på Specs)

Ja, dom har ju fokuserat på dx12 och vulkan. sen har dom tusentals "per spel" patchar att komma ikapp team röd och grön, har gått riktigt bra egentligen när man funderar på vad för sorts uppdrag det är.
Kan bara säga att jag är nöjd med mitt bifrost A770

Visa signatur

Xeon E5450@3.2ghz
9800GTX+

Permalänk
Skrivet av Swedishchef_90:

Det enda som står mellan succée och katastrof är ju deras drivers.
I syntetiska tester så var ju faktiskt Intel riktigt vettigt... (med tanke på Specs)

Värst är ju stöd för gamla spel och då snackar vi kanske dx 9 spel eller tidigare. Fungerar dessa spel ens till Intels grafikkort?

Skrivet av GizmoTheGreen:

Ja, dom har ju fokuserat på dx12 och vulkan. sen har dom tusentals "per spel" patchar att komma ikapp team röd och grön, har gått riktigt bra egentligen när man funderar på vad för sorts uppdrag det är.
Kan bara säga att jag är nöjd med mitt bifrost A770

Se ovan!

Permalänk
Medlem

Hoppas på ett battlemage som klarar 4k/60-80fps/120Hz native i dagens titlar. Om inte så får det bli AMD igen.

Har ett a750 som jag användt sedan jag sålde mitt 6800xt och enbart haft strul med ett spel i min katalog. Så hyfsat nöjd drivrutins mässigt.

Om jag minns rätt så lanserades ju Alchemist först med lowend korten i Kina och några månader(halvår?) senare kom a750/a770. Kanske blir liknande denna gång.

Permalänk
Medlem
Skrivet av Dinkefing:

Värst är ju stöd för gamla spel och då snackar vi kanske dx 9 spel eller tidigare. Fungerar dessa spel ens till Intels grafikkort?

Se ovan!

Ja, varför fokusera på gamla tekniker?
men dom har ändå kommit ikapp lite på dx11 och jag tror dom har nån form av dxvk (dx8-9-10 på vulkan) inbyggt, annars kan man ofta slänga in det själv i spelen för en viss prestanda boost.

Beror såklart på vad man spelar. kör man bioshock och hl2 (gamla versionerna) så har du ändå rätt ok prestanda men tanke på hur gamla dom är.

Vill du köra bblack myth wukong med allt maxat så segar det efter lite jämtemot amd och nvidias diton. behöver iaf inte snåla med texturer. 16gb vram på a770! för 4 lax idag.

Visa signatur

Xeon E5450@3.2ghz
9800GTX+

Permalänk
Medlem
Skrivet av Dinkefing:

Värst är ju stöd för gamla spel och då snackar vi kanske dx 9 spel eller tidigare. Fungerar dessa spel ens till Intels grafikkort?

Se ovan!

Sitter också på ett A770 Bifrost och är relativt nöjd. Dx9 spel går ju nästan att "bruteforca" idag.

Något speciellt spel du tänker på så kan jag kanske kolla.

Permalänk
Medlem

Kan någon förklara för mig hur det kommer sig att grafikkortstillverkarna måste "anpassa" sina drivrutiner till varje nytt spel. Borde det inte rimligtvis vara tvärtom?

Permalänk
Skrivet av CrazyDriver:

Kan någon förklara för mig hur det kommer sig att grafikkortstillverkarna måste "anpassa" sina drivrutiner till varje nytt spel. Borde det inte rimligtvis vara tvärtom?

(Jag är inget expert på grafik.) Grovt tror jag att spel säger till grafikkortet vad som ska rendereras via API:er inte hur. Antar att det by default sker på ett generellt sätt och att hårdvaran helt enkelt inte är optimerad för att använda resurserna optimalt för varje möjligt spel och därför specificerar drivers mer exakt hur. Varför speltillverkare inte göra detta är för att de saknar expertis antar jag, då den expertisen i princip endast finns hos grafikkortstillverkaren.

Permalänk
Medlem
Skrivet av CrazyDriver:

Kan någon förklara för mig hur det kommer sig att grafikkortstillverkarna måste "anpassa" sina drivrutiner till varje nytt spel. Borde det inte rimligtvis vara tvärtom?

Som jag har förstått det så använder spelet eller den specifika grafikmotorn vissa anrop mot grafikkortet. När grafikkortstillverkaren ser vilka anrop som görs ofta eller med vissa specifika inputs kan de fokusera på att optimera dessa specifikt.

Från en tweet från John Carmack här om dagen

"One underrated crucial thing Nvidia did was take over driver writing from the board vendors. In The Bad Old Days, each board vendor tried to tweak the drivers to get an edge, and almost none of them had the skill to do it responsibly. Quake 3 was written so defensively because there were so many crap drivers to work around. Nvidia centralizing all the work was a huge boon."

Permalänk
Medlem
Skrivet av CrazyDriver:

Kan någon förklara för mig hur det kommer sig att grafikkortstillverkarna måste "anpassa" sina drivrutiner till varje nytt spel. Borde det inte rimligtvis vara tvärtom?

Ja det är en rimlig undran..
Skulle inte DX12 göra så att det bättre koppling mellan spel och hårdvara..?

Permalänk
Medlem

Har hört en helt annan förklaring, utvecklarna använder inte api:t korrekt, eller möjligen använder det väldigt kreativt (utvecklar ramverkskod/api själv och så uttrycker vi en del användanden som råkade gå att göra fast det inte var meningen, ofta med buggar som följd), och istället för att utvecklaren löser detta och gör rätt så fixar nvidia, amd och numera intel till drivrutinen/api:t så att det fungerar annorlunda för just det spelet och inte krashar/får dålig prestanda.

Men inser efter att ha läst kommentarer tidigare att det kan vara en fin linje mellan att optimera specifik användning och vad jag just försökte beskriva, så sanningen är förmodligen nån stans i trakterna av vad som skrivits. En gemensam nämnare är att utvecklaren förmodligen gjort fel, och det år upp till drivrutinstillverkaren att mitigera de felen i drivrutinen fast det borde gjorts av utvecklaren...

Permalänk
Medlem
Skrivet av CrazyDriver:

Kan någon förklara för mig hur det kommer sig att grafikkortstillverkarna måste "anpassa" sina drivrutiner till varje nytt spel. Borde det inte rimligtvis vara tvärtom?

Min teori, varenda utvecklare ska envisas med sin egen spelmotor istället för att betala licens och köra på en beprövad. Resultatet för oss spelare blir kasst, förseningar och sen vid release finns knappt några banor för det har de inte haft tid med. Man får invänta DLC för att få 1.0 spelet i princip.

Permalänk
Medlem

Intel har till skillnad mot AMD en vettig upscaler och bra (relativ) RT-prestanda. Lyckas man bara lansera ett mellanklasskort (B750/770) finns ingen som helst anledning att välja Radeon. Tyvärr säger rykten att B580 blir det enda kortet på ganska lång tid, kanske överhuvudtaget.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av CrazyDriver:

Kan någon förklara för mig hur det kommer sig att grafikkortstillverkarna måste "anpassa" sina drivrutiner till varje nytt spel. Borde det inte rimligtvis vara tvärtom?

Skrivet av BobbyKristensen:

(Jag är inget expert på grafik.) Grovt tror jag att spel säger till grafikkortet vad som ska rendereras via API:er inte hur. Antar att det by default sker på ett generellt sätt och att hårdvaran helt enkelt inte är optimerad för att använda resurserna optimalt för varje möjligt spel och därför specificerar drivers mer exakt hur. Varför speltillverkare inte göra detta är för att de saknar expertis antar jag, då den expertisen i princip endast finns hos grafikkortstillverkaren.

Skrivet av gothxx:

Som jag har förstått det så använder spelet eller den specifika grafikmotorn vissa anrop mot grafikkortet. När grafikkortstillverkaren ser vilka anrop som görs ofta eller med vissa specifika inputs kan de fokusera på att optimera dessa specifikt.

Från en tweet från John Carmack här om dagen

"One underrated crucial thing Nvidia did was take over driver writing from the board vendors. In The Bad Old Days, each board vendor tried to tweak the drivers to get an edge, and almost none of them had the skill to do it responsibly. Quake 3 was written so defensively because there were so many crap drivers to work around. Nvidia centralizing all the work was a huge boon."

Skrivet av Ristaaf:

Har hört en helt annan förklaring, utvecklarna använder inte api:t korrekt, eller möjligen använder det väldigt kreativt (utvecklar ramverkskod/api själv och så uttrycker vi en del användanden som råkade gå att göra fast det inte var meningen, ofta med buggar som följd), och istället för att utvecklaren löser detta och gör rätt så fixar nvidia, amd och numera intel till drivrutinen/api:t så att det fungerar annorlunda för just det spelet och inte krashar/får dålig prestanda.

Men inser efter att ha läst kommentarer tidigare att det kan vara en fin linje mellan att optimera specifik användning och vad jag just försökte beskriva, så sanningen är förmodligen nån stans i trakterna av vad som skrivits. En gemensam nämnare är att utvecklaren förmodligen gjort fel, och det år upp till drivrutinstillverkaren att mitigera de felen i drivrutinen fast det borde gjorts av utvecklaren...

Om det här stämmer är världens sjuk....
Jag tycker att i så fall borde Nvidia, AMD och Intel gemensamt ta beslutet att sluta fixa spelen i drivrutinerna. Om spelen går som skit är det utvecklarnas problem. Det borde vara ett fast mål att utveckla mot Vulkan helst, annars DX12.

Visa signatur

Min Dator: AMD 3600 | 24 GB RAM | Asus X570 Prime | Fractal Design Arc R2 | Thermalright Silver Arrow | Dell U2412M | IBM Model M

Permalänk
Medlem
Skrivet av GizmoTheGreen:

Ja, varför fokusera på gamla tekniker?
men dom har ändå kommit ikapp lite på dx11 och jag tror dom har nån form av dxvk (dx8-9-10 på vulkan) inbyggt, annars kan man ofta slänga in det själv i spelen för en viss prestanda boost.

Beror såklart på vad man spelar. kör man bioshock och hl2 (gamla versionerna) så har du ändå rätt ok prestanda men tanke på hur gamla dom är.

Vill du köra bblack myth wukong med allt maxat så segar det efter lite jämtemot amd och nvidias diton. behöver iaf inte snåla med texturer. 16gb vram på a770! för 4 lax idag.

Kör Linux så är allt Vulkan för grafikkortet 😂
Översäts visserligen via dxvk och andra översättnings lager.

Visa signatur

Min Dator: AMD 3600 | 24 GB RAM | Asus X570 Prime | Fractal Design Arc R2 | Thermalright Silver Arrow | Dell U2412M | IBM Model M

Permalänk
Medlem
Skrivet av superapan:

Intel har till skillnad mot AMD en vettig upscaler och bra (relativ) RT-prestanda. Lyckas man bara lansera ett mellanklasskort (B750/770) finns ingen som helst anledning att välja Radeon. Tyvärr säger rykten att B580 blir det enda kortet på ganska lång tid, kanske överhuvudtaget.

Det är inget fel på FSR 2.2+......FSR 3.1 är väldigt bra, mycket handlar om hur väl FSR has sätts upp i spelet.

Jag fattar inte riktigt var folk har fått för sig att Radeon 7000 serien är dålig på ray tracing, de ligger ofta något lägre i rt prestanda ca 10-20 fps men i många spel ligger de okså högre. Det handlar mest of optimering. Och oftast om kortet för samma pris så har gf och rad liknande prestande även med rt.

Permalänk
Medlem
Skrivet av superapan:

Intel har till skillnad mot AMD en vettig upscaler och bra (relativ) RT-prestanda. Lyckas man bara lansera ett mellanklasskort (B750/770) finns ingen som helst anledning att välja Radeon. Tyvärr säger rykten att B580 blir det enda kortet på ganska lång tid, kanske överhuvudtaget.

Xess fungerar ju på amd och nvidia också. Testade det i farming sim 25 och var väl inte särskilt imponerad blev skit så fort det snöade eller man körde över ett fält. Eller det kanske blir bättre resultat med en intel gpu? Om inte så skulle jag inte kalla den vettig i alla fall inte i detta spelet.
Fsr är också dålig i spelet. Dlss har jag inte testat i fs25 har för tillfället ingen rtx gpu. Men det påstås ju ofta att det är okej nu för tiden.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem
Skrivet av jOnÄTÄn:

Xess fungerar ju på amd och nvidia också. Testade det i farming sim 25 och var väl inte särskilt imponerad blev skit så fort det snöade eller man körde över ett fält. Eller det kanske blir bättre resultat med en intel gpu? Om inte så skulle jag inte kalla den vettig i alla fall inte i detta spelet.
Fsr är också dålig i spelet. Dlss har jag inte testat i fs25 har för tillfället ingen rtx gpu. Men det påstås ju ofta att det är okej nu för tiden.

Alla SS har samma problem det blir inte bra om spelet ligger för långt under 60 fps på native och många förväntar sig att de ska magisk fixa upp fpsen.
De fungerar alla "bra" om du kör med kvalitet inställning och ser till att du når 60 fps i native.

Permalänk
Medlem
Skrivet av jOnÄTÄn:

Xess fungerar ju på amd och nvidia också. Testade det i farming sim 25 och var väl inte särskilt imponerad blev skit så fort det snöade eller man körde över ett fält. Eller det kanske blir bättre resultat med en intel gpu?

XeSS har två varianter, där den bättre varianten kan endast användas med Intels grafikkort.

Visa signatur

Ryzen 9 5900X @ +100MHz & CO -23.5 | RTX 3070 @ 2GHz 16Gbps 956mV | 32GB @ 3600MT/s CL14

Permalänk
Skrivet av hölmiz:

Om det här stämmer är världens sjuk....
Jag tycker att i så fall borde Nvidia, AMD och Intel gemensamt ta beslutet att sluta fixa spelen i drivrutinerna. Om spelen går som skit är det utvecklarnas problem. Det borde vara ett fast mål att utveckla mot Vulkan helst, annars DX12.

Varför tycker du det och varför skulle de bry sig? Det ger uppenbarligen bra avkastning att göra bra drivers.

Permalänk
Medlem
Skrivet av Silles:

Alla SS har samma problem det blir inte bra om spelet ligger för långt under 60 fps på native och många förväntar sig att de ska magisk fixa upp fpsen.
De fungerar alla "bra" om du kör med kvalitet inställning och ser till att du når 60 fps i native.

Jag hade 80-100fps med de förvalda grafikinställningarna före jag testade både fsr3 och xess. Kör 3440x1440. Så antingen är det dåligt i spelet eller så har vi olika uppfattning om ”bra”. Valde högsta kvalitet på båda varianter.

Skrivet av Decster:

XeSS har två varianter, där den bättre varianten kan endast användas med Intels grafikkort.

Okej då ska jag inte säga något om xess förrän jag sett det på en intel gpu.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem
Skrivet av CrazyDriver:

Kan någon förklara för mig hur det kommer sig att grafikkortstillverkarna måste "anpassa" sina drivrutiner till varje nytt spel. Borde det inte rimligtvis vara tvärtom?

Det är ju för det mesta tvärsom, dvs speltillverkarna optimerar (eller borde optimera) sina spel så långt de kan och Microsoft & co optimerar DX/Vulkan etc så mycket de kan. Där ligger ju de stora förbättringarna.

Grafikkortstillverkaren kan dock utöver det göra ytterligare optimeringar på nivåer som är dolda för speltillverkarna och API-tillverkarna.

Exempelvis vilket data som bör ligga kvar i vilken cache istället för att läsas om från RAM, fördelingen av cores på olika uppgifter, justeringar för att undvika överhettning och throttle, eller detaljstyra vilka algoritmer man använder för olika uppgifter.

"Spelet A vräker ur sig beräkningar av typen F, på 4000-serien kan vi köra en snabbvariant av F under vissa förutsättningar så vi kollar om det skulle funka för spelet A"

Permalänk
Medlem

B580 borde ju vara uppföljaren till A580
Tråkigt att bandbredden minskas från 256 till 192 bit, vilket kommer göra det kämpigare i högre upplösningar trots 12GB VRAM, men högre klocka och PCIE 5.0 kanske kan kompensera det.
Ingen kör ju bänkmärken för Intelkorten över 1080p ändå, då man förväntar sig att dom ska skala som Nvidia eller AMD's fjuttiga 128-bit.
Jag var supernöjd med mitt A750 och jag hoppas dess nya ägare som får hem det i en dator idag kommer bli lika glad.

Kan B580 prestera 50% bättre än A580 så kommer jag nog hänga på avtryckaren för ett B750 eller B770 såvida AMD inte kommer med ett mer prisvärt kort innan dess. Typ 7800XT för 4990Kr.

Skrivet av Vexo:

Min teori, varenda utvecklare ska envisas med sin egen spelmotor istället för att betala licens och köra på en beprövad. Resultatet för oss spelare blir kasst, förseningar och sen vid release finns knappt några banor för det har de inte haft tid med. Man får invänta DLC för att få 1.0 spelet i princip.

Jag föredrar att varje spel har sin egen motor, det betyder att det är bättre optimerat.
Annars kommer enkla spel ta 1TB SSD och kräva 256GB RAM + 64GB VRAM alldeles för snart.

Visa signatur

*5800X|B550M|64GB|RTX2080S|GX750W|Core V21|280AIO|2TB+2TB|1440p 240Hz

AMD Ryzen 7 @4,95GHz|Gigabyte Aorus Elite(rev1.3)|Corsair 2x32 LPX Vengeance 2666C16 @3600C20|Gigabyte Windforce OC @Stock|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 4.0x4 Samsung 980 Pro 7000/5100 + 2,5" HDD Toshiba 1TB & Seagate 1TB i RAID 0|Acer Nitro XV272Uz 27" IPS 270Hz @240Hz.

Permalänk
Medlem
Skrivet av Silles:

Det är inget fel på FSR 2.2+......FSR 3.1 är väldigt bra, mycket handlar om hur väl FSR has sätts upp i spelet.

Jag fattar inte riktigt var folk har fått för sig att Radeon 7000 serien är dålig på ray tracing, de ligger ofta något lägre i rt prestanda ca 10-20 fps men i många spel ligger de okså högre. Det handlar mest of optimering. Och oftast om kortet för samma pris så har gf och rad liknande prestande även med rt.

FSR 3 innehåller ju ingen ny upscaler. "FSR 2.2+" är objektivt rätt kass. Jag har ett 7900 XTX och använder aldrig upscaling.

7000-serien är helt OK i lättare Ray tracing. HUB testade nyligen, och i titlar med tyngre RT tappar ett 7900 XTX ögonvattnande 50 % prestanda. Extremfall som Alan Wake 2, CP2077 och Wukong snackar vi -90 % prestanda...

Arc har dock bättre RT-prestanda (vid liknande rasterprestanda). Vi tar A770 jämfört med RX 7600 XT. CP2077 raster ligger RX 7600 XT cirka 10 % före. Slå på RT och A770 är 30 % snabbare än RX 7600 XT.

Skrivet av jOnÄTÄn:

Xess fungerar ju på amd och nvidia också. Testade det i farming sim 25 och var väl inte särskilt imponerad blev skit så fort det snöade eller man körde över ett fält. Eller det kanske blir bättre resultat med en intel gpu? Om inte så skulle jag inte kalla den vettig i alla fall inte i detta spelet.
Fsr är också dålig i spelet. Dlss har jag inte testat i fs25 har för tillfället ingen rtx gpu. Men det påstås ju ofta att det är okej nu för tiden.

Här har Intel gjort en miss i marknadsföringen. XeSS fungerar på alla GPU:er, med fallback-funktionen DP4a. Den fungerar i stort som FSR, dvs körs med med shaders och handpåläggning.

På en Intel-GPU får du däremot tillgång till "riktiga" XeSS XMX. Den använder likt DLSS dedikerad hårdvara för uppskalaren, och med liknande resultat som DLSS.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av jOnÄTÄn:

Jag hade 80-100fps med de förvalda grafikinställningarna före jag testade både fsr3 och xess. Kör 3440x1440. Så antingen är det dåligt i spelet eller så har vi olika uppfattning om ”bra”. Valde högsta kvalitet på båda varianter.
Okej då ska jag inte säga något om xess förrän jag sett det på en intel gpu.

Med "bra" menar jag att alla är dåliga jag gillar ingen upscaler, och jag kör DLSS med^^

Skrivet av superapan:

FSR 3 innehåller ju ingen ny upscaler. "FSR 2.2+" är objektivt rätt kass. Jag har ett 7900 XTX och använder aldrig upscaling.

7000-serien är helt OK i lättare Ray tracing. HUB testade nyligen, och i titlar med tyngre RT tappar ett 7900 XTX ögonvattnande 50 % prestanda. Extremfall som Alan Wake 2, CP2077 och Wukong snackar vi -90 % prestanda...

Arc har dock bättre RT-prestanda (vid liknande rasterprestanda). Vi tar A770 jämfört med RX 7600 XT. CP2077 raster ligger RX 7600 XT cirka 10 % före. Slå på RT och A770 är 30 % snabbare än RX 7600 XT.

Här har Intel gjort en miss i marknadsföringen. XeSS fungerar på alla GPU:er, med fallback-funktionen DP4a. Den fungerar i stort som FSR, dvs körs med med shaders och handpåläggning.

På en Intel-GPU får du däremot tillgång till "riktiga" XeSS XMX. Den använder likt DLSS dedikerad hårdvara för uppskalaren, och med liknande resultat som DLSS.

Jag håller med uppscaling jag tycker inte om någon av dem inte DLSS heller. Från vad jag har sett så är det i princip bara 4090 som kör ray tracing i native och det kortet är så dyrt att det är larvigt.

När det gäller 7900 XTX så presterar det i princip som ett 4080 eller 4080S med ray tracing och de är lika beroende av uppscaling för hyfsad fps.

Permalänk
Medlem
Skrivet av Silles:

När det gäller 7900 XTX så presterar det i princip som ett 4080 eller 4080S med ray tracing

Tyvärr får ju 7900XTX oftast stryk av både 4070ti och 3090 i RT-prestanda och är definitivt ett trappsteg under 4080/S, som emellanåt hittas för samma pengar som 7900XTX:

Är sjukt sugen på Sapphires Nitro+ ändå, hoppas AMD gör ett prisryck när de siktar på mellanklassen. 7000-8000:- för 7900XTX hade känts ok.