Intel Arc A550M och A770M testas i 3DMark

Permalänk
Melding Plague

Intel Arc A550M och A770M testas i 3DMark

Påstådda resultat för Intel Arc A550M och A770M i testsviten 3DMark letar sig ut på Twitter, där imponerande resultat kantas av förbryllande processorprestanda.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Kombinationen med GPU och 12700H kan väl betyda att detta är Enthusiast NUC 12?

Permalänk
Medlem

Att processorn presterar dåligt kan kanske bero på att man klockat ner den för att ge mer strömbudget till grafikkortet, om det nu är en liten nuc

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av the squonk:

Att processorn presterar dåligt kan kanske bero på att man klockat ner den för att ge mer strömbudget till grafikkortet, om det nu är en liten nuc

...med konsekvens så får vi det schyssta anti-konsument konsekvensen att ex ett RTX3080M med kass kyllösning presterar väsentligt sämre än ett RTX3060M med bra kyllösning som kan sträcka på benen.

Så jag håller nog med, det är sannolikt rätt begränsad budget som fungerar sådär när man stoppar det i "bärbara" datorer med tajta budgetar

Visa signatur

Krusidullen är stulen

Permalänk
Medlem

Innan dessa siffror är bekräftade att inte använda deras ’prestandaförbättringar’ kommer jag inte tro på detta alls.

Förvånad över hur dåligt de verkar prestera faktiskt

Permalänk
Datavetare

Intel får ta och skärpa till sig och släppa hela serien någon gång. Vad som behövs är tester på A780 (deras toppmodell på skrivbordet).

Intel kommer få problem i spel eftersom existerade spel är designade/optimerade helt med fokus på Nvidia/AMD. Vi ser där att beroende på om det är ett "Nvidia-spel" eller "AMD-spel" kan relativ prestanda tilta rätt mycket i favör mot den ena eller den andra. Intel har här uppförsbacke då de i praktiken alltid kommer vara "den man inte optimerat för".

Testerna kan ändå visa lite om fördelningen av resurser i Intel GPUer är mer lik Radeon, mer lik GeForce eller (nog lite worst-case) inte lik någon av dessa.

Från och med Blender 3.3 (förväntas lanseras 7 september) får även Intels GPUer GPGPU-stöd i Cycles (via deras OneAPI, ett ramverk som faktiskt ser riktigt intressant ut). Det blir också spännande att testa då det kan ge en bra bild hur nära sin teoretiska beräkningskapacitet Intel GPUer kan prestera i verkliga applikationer.

Om man presterar dåligt (relativt teoretisk kapacitet) både i spel och Blender tyder det på att man måste jobba mer med programvaran, d.v.s. det tyder på att shader-kompilatorn som finns i driver är undermålig.

Presterar man bra i Blender men dåligt i spel indikerar det att balansen mellan rastrerings-delarna kontra beräkningsdelarna ligger förskjuten för mycket mot beräkningar för att vara optimal i spel.

Finns det några indikationer på när släppet av Intels desktop serie kan tänkas hamna? Har vi inte passerat "early summer '22" nu?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
DingDongerMcDongface
Skrivet av Yoshman:

Intel får ta och skärpa till sig och släppa hela serien någon gång. Vad som behövs är tester på A780 (deras toppmodell på skrivbordet).

Intel kommer få problem i spel eftersom existerade spel är designade/optimerade helt med fokus på Nvidia/AMD. Vi ser där att beroende på om det är ett "Nvidia-spel" eller "AMD-spel" kan relativ prestanda tilta rätt mycket i favör mot den ena eller den andra. Intel har här uppförsbacke då de i praktiken alltid kommer vara "den man inte optimerat för".

Testerna kan ändå visa lite om fördelningen av resurser i Intel GPUer är mer lik Radeon, mer lik GeForce eller (nog lite worst-case) inte lik någon av dessa.

Från och med Blender 3.3 (förväntas lanseras 7 september) får även Intels GPUer GPGPU-stöd i Cycles (via deras OneAPI, ett ramverk som faktiskt ser riktigt intressant ut). Det blir också spännande att testa då det kan ge en bra bild hur nära sin teoretiska beräkningskapacitet Intel GPUer kan prestera i verkliga applikationer.

Om man presterar dåligt (relativt teoretisk kapacitet) både i spel och Blender tyder det på att man måste jobba mer med programvaran, d.v.s. det tyder på att shader-kompilatorn som finns i driver är undermålig.

Presterar man bra i Blender men dåligt i spel indikerar det att balansen mellan rastrerings-delarna kontra beräkningsdelarna ligger förskjuten för mycket mot beräkningar för att vara optimal i spel.

Finns det några indikationer på när släppet av Intels desktop serie kan tänkas hamna? Har vi inte passerat "early summer '22" nu?

Siffrorna är lite korrigerade på slutet nu, jag lyckades klanta mig vid korr och missuppfatta det dubbelt om. Räknat på endast grafikpoängen var det trots allt en högre poäng

Indikationerna hittills är väl typ höst, förhoppningsvis. Vad jag minns har de sagt Q3 för systembyggare och det skulle inte förvåna mig om det dröjer till Q4 för konsumenter. De vassare modellerna ska dock släppas lös globalt direkt, och inte endast Kina, så hoppet lever

Permalänk
Medlem

Det känns som att Intels grafikkort är en myt.
Att det är ett mytomspunnet väsen.

Om det inte hade varit för att Intel redan har sina IGP lösningar (integrerad grafik i processorn) så hade Intels grafikkort känts liknande som Duke Nukem Forever.
Först hype när det börjar snacka om det och sen diverse förseningar och uppskjutningar och dylikt och man tror att det där kommer nog aldrig och sen när det kommer 14 år senare är det inte många som bryr sig längre.

Det som är lite hoppfullt är att man vet att Intel är ett stort företag med stora budgetar som kan tänka långsiktigt.
Så även om första generationen Arc blir en halv flopp så kan de fortfarande utveckla framtida generationer som kan bli bättre.
Det är inte så att Intels framtid står och faller med första generationen Arc.

Permalänk
Medlem

Undrar om det inte var en medveten strategi från AMD's sida att sparka Raja Koduri och få in honom på Intel. Hans bedrifter på AMD talar ju för sig själva och han verkar fortsätta i samma spår på Intel. Så frågan är om han bara lyckas sänka Intel GFX-division eller och han till och med ska lyckas få med sig hela företaget ned i botten?

Permalänk
Medlem

Jag småler lite åt att det fortfarande är spelen som måste anpassa sig efter hårdvaran.
Minns hur allt sådant skulle magiskt försvinna med DX12

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Datavetare
Skrivet av ToddTheOdd:

Undrar om det inte var en medveten strategi från AMD's sida att sparka Raja Koduri och få in honom på Intel. Hans bedrifter på AMD talar ju för sig själva och han verkar fortsätta i samma spår på Intel. Så frågan är om han bara lyckas sänka Intel GFX-division eller och han till och med ska lyckas få med sig hela företaget ned i botten?

Givet att RDNA tydligen är Rajas "pet project" kanske det inte låter så troligt att han blev sparkad, eller?

Det är svårt att från utsidan riktigt greppa ledtiderna FoU-divisionerna jobbar med i denna bransch. Ta Jim Kellers jobb på Intel (han lämnade för två år sedan), den CPU-arkitektur han primärt ska ha jobbat med har ännu inte lanserats. Är den som kommer nästa år (efterföljaren till Raptor Lake).

Sen verkar Raj Koduri inte vara en HW-person, givet sin roll har han definitivt en vision kring vad man ska ta vägen, vilket påverkar HW-valen. Men han har primärt en bakgrund i programvara och där finns en hel del positiva saker.

När han började på Intel var en av hans ansvarsområden OneAPI. Intel har fortfarande mycket att bevisa med OneAPI, men de har börjat få in det på hyfsat många ställen (mer på HCP-områden än för konsumenter).

Det är nu över ett decennium som Nvidia slog en home-run med CUDA (programvaran), inget försök att utmana CUDA har ens varit nära. OneAPI är det första som överhuvudtaget har några tekniska fördelar mot CUDA, det faktum att Jensen lägger energi på att dissa OneAPI skulle jag tolka som även Nvidia ser det som en realistisk konkurrent.

Givet Rajas fokus har han garanterat haft en hel del att göra med designen av Apples Metal, det lanserades ungefär samtidigt som Raja slutade på Apple och gick till AMD. Metal har så här i efterhand på flera sätt visat sig varit DX12/Vulkan done right i det att man får samma fördelar som DX12/Vulkan på moderna multi-core system fast utan att gå till "low-level" API. Valet av "low-level API" är nog är en stor orsak till varför DX12/Vulkan utrullningen gått så långsamt.

Problemet jag ser med Raja Koduri är att både AMD och Intel verkar vilja ha honom i PR-rollen. Han är lite väl mycket för att totalt överhypa saker innan det riktigt finns hårda data som backar upp det han hävdar...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av medbor:

Innan dessa siffror är bekräftade att inte använda deras ’prestandaförbättringar’ kommer jag inte tro på detta alls.

Förvånad över hur dåligt de verkar prestera faktiskt

Tycker det är roligt att de öht presterar. Förväntar mig ingenting av Intels första serie, lyckas de ens ta några marknadsandelar så hoppas jag iaf på topp-prestationer inom några generationer. För de lär väl först och främst försöka sig på företagskonsumenter med laptops etc?

Visa signatur

5800X - 2080ti - DDR4 32gb 3200mhz - B550-F - Arctic LF II 240 - RM750X - H510 flow

Permalänk
Medlem
Skrivet av Saligt:

Tycker det är roligt att de öht presterar. Förväntar mig ingenting av Intels första serie, lyckas de ens ta några marknadsandelar så hoppas jag iaf på topp-prestationer inom några generationer. För de lär väl först och främst försöka sig på företagskonsumenter med laptops etc?

Men är det verkligen en ’första serie’? De har ju byggt integrerade med fungerande drivrutiner i årtionden vid det här laget. Det är ju dessutom samma arkitektur rakt av, bara gddr som är direkt nytt för dem

Permalänk
Sötast

Bärbara datorer som utnyttjar TDP värden på såna här höga wattantal bör benämnas om till "flyttbara".

0 chans att du game'ar "på språng" iallafall!

Permalänk
Medlem
Skrivet av medbor:

Men är det verkligen en ’första serie’? De har ju byggt integrerade med fungerande drivrutiner i årtionden vid det här laget. Det är ju dessutom samma arkitektur rakt av, bara gddr som är direkt nytt för dem

Kan alldeles för lite om det men tänker att deras försök att göra ett dedikerat grafikkort inte kommer slå genom något tak i första läget.

Visa signatur

5800X - 2080ti - DDR4 32gb 3200mhz - B550-F - Arctic LF II 240 - RM750X - H510 flow

Permalänk
Medlem

GN har testat ett A380 det ser ut att prestera ungefär som ett RX6400 sålänge ReBAR är aktiverat, utan ReBAR presterar det riktigt uselt.

Permalänk
Datavetare
Skrivet av xc:

GN har testat ett A380 det ser ut att prestera ungefär som ett RX6400 sålänge ReBAR är aktiverat, utan ReBAR presterar det riktigt uselt.

Varför kan inte alla ha något form av "prestandaindex"? GN hade ju gjort ett superbra jobb med testning, men lite svårt att se skogen för alla träd om de inte gör någon vettig sammanfattning!

Tycker det ser ut rätt mycket som man kan förvänta sig givet teoretisk kapacitet hos respektivt kort. A380 har något högre VRAM-bandbredd och något högre rå beräkningskapacitet än RX6400, medan RX6400 har sin "Infinity cache" samt högre rastreringskapacitet. På det stora hela är de rätt jämbördiga sett till teoretisk kapacitet.

Ur den aspekten får man ändå säga att Intel klarade sig... blandat.

I DX12/Vulkan ser det faktiskt bättre än väntat ut, plockar man ut dessa titlar ligger A380 och RX6400 helt jämt i genomsnittlig FPS och A380 har faktiskt marginellt (typ 5 %) bättre 1 % lows. Är det något man kan vara orolig för är att lägsta värdena ska vara vingliga på ett nytt kort.

Likaså vet jag inte varför GN spendera så mycket tid på att konstatera att ReBAR är ett krav. Det är en finess som kom med PCIe 3.0, att en GPU som lanseras ett decennium senare i praktiken kräver ReBAR är väl mer då: OK, check!

Stora problemet är ju det direkt bedrövlig resultatet i DX11. Trots att DX12 nu är 7 år gammalt och tillslut blivit den dominerade APIn i spel är DX11 långt ifrån irrelevant.

Både RX6400 och A380 får sedan skämmas ställd mot GTX1650, vilket är ett problem då de alla verkar ligga på liknande prisnivå...

Ska man ta något positivt ur detta är det väl att A380 trots allt presterar på den nivån dess teoretiska kapacitet skvallrar om ställd mot RX6400. Om samma gäller för A780 kommer det ned till prislapp om det trots allt kan bli något vettigt!

Klicka för mer information
Visa mer
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer