AMD, Nvidia och Intel – vad är det för skillnad mellan grafikkortstillverkarna?

Permalänk
Melding Plague

AMD, Nvidia och Intel – vad är det för skillnad mellan grafikkortstillverkarna?

Rastreringsprestanda, ray tracing och energieffektivitet är några av begreppen du kan stöta på när du ska välja grafikkort. Vi försöker reda ut soppan och vägleda till rätt köp.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Nu vet jag att jag är partisk, men vad jag ser är att A750 klättrar förbi 7600, 7600XT och 4060 i strålspårning.
Extrapolerar man det till det bortfallna A770 så borde det ligga hack i häl på 7900 GRE med 42,0 FPS.

Edit: Tillägg gällande strålspårning
"Det går också att konstatera att Intels implementation är starkare än AMD:s vid samma prestandasegment."
Det går också att konstatera att Intels implementation är starkare än NVIDIA:s vid samma prestandasegment.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem

Bra ämne saknas dock Minne på korten då man köper grafikkort ganska sällan . Alltså jag hade 1070- sen 3070 och kommer titta på 5070 eller Amd liknade kort . Dom flesta verkar dock byta ännu mer sällan så minnet på kortet blir en Viktig faktor .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem

Du missade att AMD är klart bättre och enklare om en vill köra Linux.

Visa signatur

R&D Elektronikingenjör

Permalänk
Medlem

Det krävs alltså ett RTX 4080 för att ut 60 fps vid 1440 med ray tracing. Men det lär säkert förbättras i framtida kort, men det känns som en mycket kostsam teknik för att få lite mer bling bling.

Permalänk
Medlem
Skrivet av Falistar:

Det krävs alltså ett RTX 4080 för att ut 60 fps vid 1440 med ray tracing. Men det lär säkert förbättras i framtida kort, men det känns som en mycket kostsam teknik för att få lite mer bling bling.

Uppskalning förändrar det hela dock. Är man ok med det krävs det inte alls så fläskigt kort för att nå 60 FPS med Ray Tracing.

Permalänk
Redaktion
Praktikant ✨
Skrivet av Fenrisulvfan:

Nu vet jag att jag är partisk, men vad jag ser är att A750 klättrar förbi 7600, 7600XT och 4060 i strålspårning.
Extrapolerar man det till det bortfallna A770 så borde det ligga hack i häl på 7900 GRE med 42,0 FPS.

Edit: Tillägg gällande strålspårning
"Det går också att konstatera att Intels implementation är starkare än AMD:s vid samma prestandasegment."
Det går också att konstatera att Intels implementation är starkare än NVIDIA:s vid samma prestandasegment.

Du har en poäng, skrev om den sektionen.

Skrivet av ottoblom:

Bra ämne saknas dock Minne på korten då man köper grafikkort ganska sällan . Alltså jag hade 1070- sen 3070 och kommer titta på 5070 eller Amd liknade kort . Dom flesta verkar dock byta ännu mer sällan så minnet på kortet blir en Viktig faktor .

Bra feedback! Lägger till en sektion om grafikminne imorgon.

Permalänk
Medlem

En aspekt som AMD kommit med den senaste tiden är fluid motion frames, vilket hittar på rutor emellan rutorna i valfri upplösning och spel. Detta har flera fps-jagande människor tagit fasta på i det tunga spelet star citizen. De har helt enkelt kombinerat ett RTX4090TI med ett instegskort från AMD:s 6000-serie. På det viset kan de aktivera denna FMF-funktion på valfritt spel och samtidigt använda sitt nvidia-kort som det primära grafikkortet. Detta har gett spelare skyhöga fps i det svältfödda star citizen i städer där man som oftast får nöja sig med en medioker upplevelse. Förvisso kan man ibland se vissa buggar i grafiken, men vill man ha mest fps så är detta troligen bästa vägen i star citizen för tillfället.
Så varför välja ett märke, när man kan köra dual gpus 😁

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem
Skrivet av Nikodemous:

En aspekt som AMD kommit med den senaste tiden är fluid motion frames, vilket hittar på rutor emellan rutorna i valfri upplösning och spel. Detta har flera fps-jagande människor tagit fasta på i det tunga spelet star citizen. De har helt enkelt kombinerat ett RTX4090TI med ett instegskort från AMD:s 6000-serie. På det viset kan de aktivera denna FMF-funktion på valfritt spel och samtidigt använda sitt nvidia-kort som det primära grafikkortet. Detta har gett spelare skyhöga fps i det svältfödda star citizen i städer där man som oftast får nöja sig med en medioker upplevelse. Förvisso kan man ibland se vissa buggar i grafiken, men vill man ha mest fps så är detta troligen bästa vägen i star citizen för tillfället.
Så varför välja ett märke, när man kan köra dual gpus 😁

När Nvidia köpte upp och låste in PhysX gick det att kombinera ett ATI/AMD-kort med ett billigt Nvidiakort för några hundralappar för att få PhysX-effekterna ändå på ett motsvarande sätt, men Nvidia låste det då aktivt i sina drivrutiner om de upptäckte ett annat märke på grafikkort i datorn. Troligtvis var det Microsoft och Windows 10 som tvingade dem att ta bort låsningen, eftersom kravet för Win 10 (om jag minns rätt) var att tillåta användare att kombinera olika hårdvara som de själva ville och faktiskt hade köpt. Tror inte att de tagit bort låsningen om de inte hade varit tvungna.

För mig känns det som att ränderna inte går ur, bara att taktiken och metoderna ändras, som att låsa DLSS 3 Frame Generation till RTX 40, och utelämna RTX 30. Ska du ha framegen på RTX 30 får du hoppas på FSR 3. Sån historik påverkar iaf mig, och vilka beteenden jag vill stödja med mina pengar, det är sånt jag också tycker man kan väga in och fundera över förutom det rent tekniska. Det ändrar iofs inte det faktum att om man vill köra Alan Wake 2 med snygg path tracing är det ett av de dyraste RTX 40-korten man måste skaffa, även om du måste köra med uppskalning och framegen... Precis som tänkt, får jag väl tillägga.

Permalänk
Datavetare
Skrivet av Rebben:

Du missade att AMD är klart bättre och enklare om en vill köra Linux.

Vill man ha GPGPU-acceleration i Linux körandes under WSL2 så jobbar AMD/Intel på det, men vill man att det ska fungera idag är Nvidias rätt mycket enda alternativet (och det fungerar direkt lysande i den kombon jag testat med, 3090/Win11/Ubuntu22.04-under-WSL2).

Använder man någon av de distributioner som Nvidia stödjer officiellt (t.ex. Ubuntu) så är Nvidia inte bara enkelt att använda, de har överlägset bäst stöd i program (och enda som i alla fall tidigare hade officiellt stöd i Unity och UE under Linux).

Råkar man hänga på AI-tenden så är till och med Intels stöd bättre, men Nvidia är i en egen liga. Vilket egentligen numera gäller för all form av GPGPU under Linux.

Men bortsett från det är det AMD GPU-stödet bättre!

Och angående AI: givet vilken hype det är, vore det inte på sin plats för SweC att göra någon form av prestandatest av GPUer när man kör lokala LLMs? För lokala LLMs har en rad fördelar över att köra ChatGPT, Copilot, Gemini etc, men samtidigt är prestanda direkt bedrövligt om man inte har GPGPU-acceleration.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Jag saknar information om nästa generation i artikeln. Nvidias 40xx kort lanserades 2022 och 30xx korten lanserades 2020. Det är rimligt att anta att 2024 Q4 kommer 50xx serien lanseras. För AMD så är det ungefär samma historia, 7000 korten lanserades 2022 men här har vi rykten om att AMD lämnar entusiastsegmentet. Det innebär då att RX 7900-korten inte får någon uppföljare. För Intel så kanske vi får se deras nya serie baserat på "Battlemage" redan någon av de kommande två- tre månaderna. Ingenting tyder dock på att Intel söker sig högre upp i segmenten än mellanklass.

Permalänk
Medlem

Bra artikel och framförallt slutklämmen, välj efter behov och förstås budget.

För min del var 4090 ett självklart köp i början av februari 2023, mitt 3070 imponerande inte med min 32" UHD 144Gz skärm. Finfin tidig födelsedagspresent till mig själv men hade köpt den ändå, hängde mest på vask av nätdel.

Kör och föredrar någon AMD eller för den delen Intels kort så är jag glad för deras skull förutsat att kortet också fyller ens behov och man är genuint nöjd med vad den levererar. Vi har ju alla olika behov, synpunkter och budgetar men ser personligen alla som använder PC, framförallt för spel som "vänner" så att säga.
Livet är egentligen begränsat, viktigt att värdera sin tid och läggas ssin tid och pengar (för konsumtion och hobbys) på rätt ställe tänker jag.

I grunden har vi ju samma intresse trots allt. Inget emot de som föredrar konsoller men skillnaden är så pass stor att det inte går att jämföra. Låst plattform, inga riktiga val. På PC får vi det bästa av alla världar, med få undantag.

Kanske ett konstigt och dåligt formulerat inlägg men inte sovit så bra. Ha det gott!

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo
Spellaptop: Asus ROG Strix G15, 6800H, 16GB, RTX 3070Ti, 1TB NVMe
Övrigt: Dell XPS 13 modell 9310, Apple Macbook Air M1 8GB samt Samsung Galaxy S7 FE, Steam Deck
Dammsamlare: PS5, Switch och Xbox One X
Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av bopp:

När Nvidia köpte upp och låste in PhysX gick det att kombinera ett ATI/AMD-kort med ett billigt Nvidiakort för några hundralappar för att få PhysX-effekterna ändå på ett motsvarande sätt, men Nvidia låste det då aktivt i sina drivrutiner om de upptäckte ett annat märke på grafikkort i datorn. Troligtvis var det Microsoft och Windows 10 som tvingade dem att ta bort låsningen, eftersom kravet för Win 10 (om jag minns rätt) var att tillåta användare att kombinera olika hårdvara som de själva ville och faktiskt hade köpt. Tror inte att de tagit bort låsningen om de inte hade varit tvungna.

För mig känns det som att ränderna inte går ur, bara att taktiken och metoderna ändras, som att låsa DLSS 3 Frame Generation till RTX 40, och utelämna RTX 30. Ska du ha framegen på RTX 30 får du hoppas på FSR 3. Sån historik påverkar iaf mig, och vilka beteenden jag vill stödja med mina pengar, det är sånt jag också tycker man kan väga in och fundera över förutom det rent tekniska. Det ändrar iofs inte det faktum att om man vill köra Alan Wake 2 med snygg path tracing är det ett av de dyraste RTX 40-korten man måste skaffa, även om du måste köra med uppskalning och framegen... Precis som tänkt, får jag väl tillägga.

Anledningen till att 3000 serien inte fick fullt stöd för dlss 3 (den har ju faktiskt dlss 3.5) är ju för den är för dålig. Prestandan räcker inte till. Vad dlss 4 ger får vi om den kommer

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Jag fastnade ett tag på att flippa Alan Wake bilden fram och tillbaka, hade inte bilderna varit märkta med on/off hade jag nog inte vetat vilken som var vad, såg ingen större skillnad faktiskt. Detta var då en stillbild, om man kutar i full fart förbi ser man verkligen någon skillnad eller måste man stanna och detaljstudera dom olika objekten i bilden?

Permalänk
Medlem
Skrivet av xc:

Jag fastnade ett tag på att flippa Alan Wake bilden fram och tillbaka, hade inte bilderna varit märkta med on/off hade jag nog inte vetat vilken som var vad, såg ingen större skillnad faktiskt. Detta var då en stillbild, om man kutar i full fart förbi ser man verkligen någon skillnad eller måste man stanna och detaljstudera dom olika objekten i bilden?

Med rätt skärm så poppar RT bilder något otroligt. Du har förmodligen fel skärm/inställningar.

Det som gör rt är ju hur ljuset sprider sig och det krävs hög ljusstyrka för att poppa

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av xc:

Jag fastnade ett tag på att flippa Alan Wake bilden fram och tillbaka, hade inte bilderna varit märkta med on/off hade jag nog inte vetat vilken som var vad, såg ingen större skillnad faktiskt. Detta var då en stillbild, om man kutar i full fart förbi ser man verkligen någon skillnad eller måste man stanna och detaljstudera dom olika objekten i bilden?

Samma. Så... AMD it is then

Permalänk
Medlem

Konstigt att inte RT gör större avtryck idag nu när RT fått mogna med tre generationer av grafikkort

Permalänk
Medlem
Skrivet av xc:

Jag fastnade ett tag på att flippa Alan Wake bilden fram och tillbaka, hade inte bilderna varit märkta med on/off hade jag nog inte vetat vilken som var vad, såg ingen större skillnad faktiskt. Detta var då en stillbild, om man kutar i full fart förbi ser man verkligen någon skillnad eller måste man stanna och detaljstudera dom olika objekten i bilden?

Nu är ju inte Alan wake 2 ett kuta i full fart spel, men rent generellt är det ju rätt lätt att hitta screen-space-artefacter som inte inträffar med raytracing. Reflektioner är ju det första man tänker på. Kanske är svårt i stillbilder dock.

Permalänk
Redaktion
Praktikant ✨
Skrivet av xc:

Jag fastnade ett tag på att flippa Alan Wake bilden fram och tillbaka, hade inte bilderna varit märkta med on/off hade jag nog inte vetat vilken som var vad, såg ingen större skillnad faktiskt. Detta var då en stillbild, om man kutar i full fart förbi ser man verkligen någon skillnad eller måste man stanna och detaljstudera dom olika objekten i bilden?

Skrivet av Lussarn:

Nu är ju inte Alan wake 2 ett kuta i full fart spel, men rent generellt är det ju rätt lätt att hitta screen-space-artefacter som inte inträffar med raytracing. Reflektioner är ju det första man tänker på. Kanske är svårt i stillbilder dock.

Ja, skillnaden är generellt väldigt svår att fånga i stillbilder. I just Alan Wake II är det i min mening en otrolig skillnad att använda path tracing-läget, och då inte bara när man står stilla och detaljstuderar scenen utan den sammantagna känslan i spelet. Det är ett av de få spel där jag kan tänka mig att tumma på bildfrekvensen ganska rejält för att kunna använda path tracing.

Permalänk
Medlem

RT är ju rätt specifikt för en viss typ av spel och det finns ju betydligt fler än just den typen. Det är synd att AMD är så usla på energieffektiviteten för annars hade valet varit riktigt enkel för oss som spelar de andra typerna.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk
Medlem
Skrivet av bopp:

När Nvidia köpte upp och låste in PhysX gick det att kombinera ett ATI/AMD-kort med ett billigt Nvidiakort för några hundralappar för att få PhysX-effekterna ändå på ett motsvarande sätt, men Nvidia låste det då aktivt i sina drivrutiner om de upptäckte ett annat märke på grafikkort i datorn. Troligtvis var det Microsoft och Windows 10 som tvingade dem att ta bort låsningen, eftersom kravet för Win 10 (om jag minns rätt) var att tillåta användare att kombinera olika hårdvara som de själva ville och faktiskt hade köpt. Tror inte att de tagit bort låsningen om de inte hade varit tvungna.

För mig känns det som att ränderna inte går ur, bara att taktiken och metoderna ändras, som att låsa DLSS 3 Frame Generation till RTX 40, och utelämna RTX 30. Ska du ha framegen på RTX 30 får du hoppas på FSR 3. Sån historik påverkar iaf mig, och vilka beteenden jag vill stödja med mina pengar, det är sånt jag också tycker man kan väga in och fundera över förutom det rent tekniska. Det ändrar iofs inte det faktum att om man vill köra Alan Wake 2 med snygg path tracing är det ett av de dyraste RTX 40-korten man måste skaffa, även om du måste köra med uppskalning och framegen... Precis som tänkt, får jag väl tillägga.

Det mest intressanta måste väl ändå vara alla de som sitter gtx-1000-serien och inte kan använda dlss, men genom att använda AMD:s FSR så kan de gamla gtx1060-kort få hygglig prestanda.

Fluid motion frames är inget nytt skall tilläggas. Om man nöjer sig med 1080p, så kan man köpa steamprogrammet lossless för under hundringen så kan man använda denna teknik till vilket graikkortsom helst 🙂

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem
Skrivet av Yoshman:

Vill man ha GPGPU-acceleration i Linux körandes under WSL2 så jobbar AMD/Intel på det, men vill man att det ska fungera idag är Nvidias rätt mycket enda alternativet (och det fungerar direkt lysande i den kombon jag testat med, 3090/Win11/Ubuntu22.04-under-WSL2).

Använder man någon av de distributioner som Nvidia stödjer officiellt (t.ex. Ubuntu) så är Nvidia inte bara enkelt att använda, de har överlägset bäst stöd i program (och enda som i alla fall tidigare hade officiellt stöd i Unity och UE under Linux).

Råkar man hänga på AI-tenden så är till och med Intels stöd bättre, men Nvidia är i en egen liga. Vilket egentligen numera gäller för all form av GPGPU under Linux.

Jag kör både stable diffusion och LLMs med AMD i linux och det är plug and play med pytorch. Intels stöd är avsevärt mycket sämre. WSL2 spelar ingen som helst roll för mig för det mesta inom AI fungerar bättre och är snabbare på ren linux.

Visa signatur

R&D Elektronikingenjör

Permalänk
Medlem
Skrivet av medbor:

Konstigt att inte RT gör större avtryck idag nu när RT fått mogna med tre generationer av grafikkort

Du behöver ju i regel ett kort från 3xxx-serien eller bättre för att det ens ska vara värt. Det kommer komma mer och mer när tekniken blir mer tillgänglig i kort som inte kostar 10 papp och uppåt. Jag tror det är rätt få personer idag av marknaden som faktiskt har "råd" att slå på ray tracing och ändå ha en bra upplevelse.

Om inte den presumtiva basen för kort som verkligen är kapabla finns så kommer man nog inte lägga så mycket tid på det om man inte får en säck med pengar från Nvidia för att utveckla det som en feature i spel.

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem

Bra artikel och use cases för samtliga tillverkare. Amd är ofta mest fps per krona vilket är varför jag köpte ett amd kort senast men om RT blir mer mainstream (är fortfarande en ganska under utilized feature i spel) kanske en kan se över alternativ. Förhoppningsvis leverar både Intel och AMD bättre RT när tekniken är mainstream på riktigt, då jag mest köper Nvidia när jag är tvungen. Det hade varit lättare att köpa Nvidia om de inte haft affärsmetoder såsom ex dlss framgen specifikt för 4 serien och deras försök att befästa deras exklusivitet bland tillverkare förut m.m .

Visa signatur

Asus X470 gaming-f, 5800x, 7900xt, g.skill 32gb 3200 cl 14.

Permalänk
Redaktion
Praktikant ✨

@ottoblom Nu finns en sektion om grafikminne också!

Permalänk
Medlem
Skrivet av JonasT:

@ottoblom Nu finns en sektion om grafikminne också!

Bra, informativt och tajt formulerad sektion. Tack!

Permalänk
Medlem
Skrivet av JonasT:

@ottoblom Nu finns en sektion om grafikminne också!

Tack skall läsa .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Datavetare
Skrivet av Rebben:

Jag kör både stable diffusion och LLMs med AMD i linux och det är plug and play med pytorch. Intels stöd är avsevärt mycket sämre. WSL2 spelar ingen som helst roll för mig för det mesta inom AI fungerar bättre och är snabbare på ren linux.

Helt sant att många, nog de flesta, projekt relaterade till "AI är snabbare på Linux. Märkligt nog gäller det specifikt när man kör med GPGPU.

Men det som är rejält märkligt (men väldigt trevligt) är att vad än prestandaflaskhalsen ligger håller den till i user-land delen. Så kombinationen Windows11/WSL2/Ubuntu/CUDA presterar väldigt nära, typiskt 90-95 %, av native Ubuntu/CUDA.

Sen var det det specifikt detta jag invände mot

"Du missade att AMD är klart bättre och enklare om en vill köra Linux."

ser detta ofta på SweC, men har väldigt svårt att förstå hur man kan dra den slutsatsen förutsatt att man inte kör en rullande release utan håller sig till t.ex. Ubuntu LTS, Redhat etc.

Du nämner specifikt stable diffusion, flera av projekten associerade till det skriver "Nvidia recomended" (vilket även UE4/5 och Unity i alla fall gjort tidigare), sedan har de länkar till hur man får igång det på AMD/Intel.

Så sure, man kan diskutera vem av AMD och Intel som är på 3:e plats av dessa två. I nästan alla projekt fungerar Nvidia bäst / är enklast att komma igång med, Apple är numera klar tvåa, sedan varierar det om AMD eller Intel som kommer därefter.

Intel ska ha skit för sitt Linux stöd till Arc. Historiskt har de varit väldigt bra att stödja Linux, Arc stödet slirade en hel del utanför datacentermodellerna men har blivit betydligt bättre senaste året.

Det som gör att Intel totalt sett klarar sig rätt bra, för GPGPU, är att de står bakom så mycket teknik som används. Embree kommer från dem (används i t.ex. Blender), deras MKL (som numera har GPGPU-stöd via OneAPI) användes sedan tidigare i många projekt som SIMD-accelerator, samt deras ISPC-kompilator (som bl.a. används av flera spelmotorer för att accelerera fysik) har idag även stöd för GPGPU (är också primärt för SIMD på CPU).

Angående ISPC: måste fortfarande svida för Intel att den som skapade projektet slutade, men hade kvar sin commit-rättighet och då slängde in ARM64/NEON stöd. Då projektet är öppen källkod vågade inte Intel ta bort stödet men de kapade hans commit-rättighet

Vad det gäller att stödet för Nvidia bara fungerar bra för stabila Linux versioner på "stora" distron, det gäller i praktiken även för AMD (och Intel) om man vill ha fullt stöd. ROCm finns bara officielt till Ubuntu 20.04, 22.04, ett par Redhat enterprise version samt ett par SuSE versioner. Rätt mycket en speglig av Nvidias stöd, fast Nvidia stödjer bl.a. Ubuntu på ARM64.

Phoronix brukar ju testa spel lite till och från. Där ligger Intel helt klart efter i stöd, men gäller även Windows. Sett till prestanda och kompatibilitet ser det bra ut både för AMD och Nvidia.

Så enda rimliga slutsatsen är: hur man än vrider och vänder på det är det idag Nvidia som har bäst Linux-stöd (framförallt enklast att använda så fort man ger sig på GPGPU). Går säkert att hitta någon rullande release som man knappt hört talas om där det är en fördel med att grunddelen av drivers finns i kärnan för AMD, men drivrutiner till GPU är idag långt mer än bara det som finns i kärnan så att få fullt stöd på någon GPU i det fallet är rätt utmanande.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Helt sant att många, nog de flesta, projekt relaterade till "AI är snabbare på Linux. Märkligt nog gäller det specifikt när man kör med GPGPU.

Men det som är rejält märkligt (men väldigt trevligt) är att vad än prestandaflaskhalsen ligger håller den till i user-land delen. Så kombinationen Windows11/WSL2/Ubuntu/CUDA presterar väldigt nära, typiskt 90-95 %, av native Ubuntu/CUDA.

Sen var det det specifikt detta jag invände mot

"Du missade att AMD är klart bättre och enklare om en vill köra Linux."

ser detta ofta på SweC, men har väldigt svårt att förstå hur man kan dra den slutsatsen förutsatt att man inte kör en rullande release utan håller sig till t.ex. Ubuntu LTS, Redhat etc.

Du nämner specifikt stable diffusion, flera av projekten associerade till det skriver "Nvidia recomended" (vilket även UE4/5 och Unity i alla fall gjort tidigare), sedan har de länkar till hur man får igång det på AMD/Intel.

Så sure, man kan diskutera vem av AMD och Intel som är på 3:e plats av dessa två. I nästan alla projekt fungerar Nvidia bäst / är enklast att komma igång med, Apple är numera klar tvåa, sedan varierar det om AMD eller Intel som kommer därefter.

Intel ska ha skit för sitt Linux stöd till Arc. Historiskt har de varit väldigt bra att stödja Linux, Arc stödet slirade en hel del utanför datacentermodellerna men har blivit betydligt bättre senaste året.

Det som gör att Intel totalt sett klarar sig rätt bra, för GPGPU, är att de står bakom så mycket teknik som används. Embree kommer från dem (används i t.ex. Blender), deras MKL (som numera har GPGPU-stöd via OneAPI) användes sedan tidigare i många projekt som SIMD-accelerator, samt deras ISPC-kompilator (som bl.a. används av flera spelmotorer för att accelerera fysik) har idag även stöd för GPGPU (är också primärt för SIMD på CPU).

Angående ISPC: måste fortfarande svida för Intel att den som skapade projektet slutade, men hade kvar sin commit-rättighet och då slängde in ARM64/NEON stöd. Då projektet är öppen källkod vågade inte Intel ta bort stödet men de kapade hans commit-rättighet

Vad det gäller att stödet för Nvidia bara fungerar bra för stabila Linux versioner på "stora" distron, det gäller i praktiken även för AMD (och Intel) om man vill ha fullt stöd. ROCm finns bara officielt till Ubuntu 20.04, 22.04, ett par Redhat enterprise version samt ett par SuSE versioner. Rätt mycket en speglig av Nvidias stöd, fast Nvidia stödjer bl.a. Ubuntu på ARM64.

Phoronix brukar ju testa spel lite till och från. Där ligger Intel helt klart efter i stöd, men gäller även Windows. Sett till prestanda och kompatibilitet ser det bra ut både för AMD och Nvidia.

Så enda rimliga slutsatsen är: hur man än vrider och vänder på det är det idag Nvidia som har bäst Linux-stöd (framförallt enklast att använda så fort man ger sig på GPGPU). Går säkert att hitta någon rullande release som man knappt hört talas om där det är en fördel med att grunddelen av drivers finns i kärnan för AMD, men drivrutiner till GPU är idag långt mer än bara det som finns i kärnan så att få fullt stöd på någon GPU i det fallet är rätt utmanande.

Jag kör Fedora och det fungerar alldeles utmärkt. Helt sant att Nvidia har bättre stöd till AI men AMD är rätt lätt att få igång idag, stödet har blivit mycket bättre. De som utvecklar applikationerna vet att majoriteten av användarna i Linux som har ett grafikkort kör AMD.

Till spel är stödet bättre med AMD. Det är totalt PnP. Inte en enda extra grej behöver installeras.

Visa signatur

R&D Elektronikingenjör

Permalänk
Medlem
Skrivet av Rebben:

Jag kör Fedora och det fungerar alldeles utmärkt. Helt sant att Nvidia har bättre stöd till AI men AMD är rätt lätt att få igång idag, stödet har blivit mycket bättre. De som utvecklar applikationerna vet att majoriteten av användarna i Linux som har ett grafikkort kör AMD.

Till spel är stödet bättre med AMD. Det är totalt PnP. Inte en enda extra grej behöver installeras.

Under 2021 var iallafall Nvidia störst.
https://boilingsteam.com/amd-vs-nvidia-are-linux-gamers-switc...