John Carmack ser större potential i grafikkort

Permalänk
Melding Plague

John Carmack ser större potential i grafikkort

Den legendariske spelutvecklaren tror att Linux kan köras direkt på grafikkorten.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

"Carmack föreslår att grafikkort ska kunna ta över alla beräkningar som en dator behöver"

Det är väl inte det han skriver?

Visa signatur

DAN Cases A4-SFX | AMD Ryzen 7 9800X3D | Thermalright AXP90-X47 Full Copper |
INNO3D GeForce RTX 4070 Ti SUPER 16GB Twin X2 | Kingston 32GB (2x16GB) DDR5 6000MHz CL30 | ASUS ROG Strix B650E-I Gaming WIFI | Samsung 960 EVO 1TB | Corsair SF-600

Permalänk
Medlem

En hårddisk kan ju vara bra att ha också. Eller ska det ingå i grafikkortet? Jobbigt att uppgradera lagringen isåfall.

Visa signatur

Jag gillar att försöka odla tropiska växter från frön, i ett nordiskt klimat.
🌱 Min YouTube-kanal: https://www.youtube.com/c/NordicPlantLover 🌱

Permalänk
Hedersmedlem
Skrivet av Nioreh83:

"Carmack föreslår att grafikkort ska kunna ta över alla beräkningar som en dator behöver"

Det är väl inte det han skriver?

Nä, jag tycker mer han beskriver ett kul nördexperiment än förutser slutet för kompletta datorer till spel.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Hedersmedlem
Skrivet av dodie:

En hårddisk kan ju vara bra att ha också. Eller ska det ingå i grafikkortet? Jobbigt att uppgradera lagringen isåfall.

Förslaget är väl att modermodemet ska vara själva hjärtat i hårddisken om jag förstått det rätt

Visa signatur

🎮 → Node 304 • Ryzen 7 5700X3D • Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av dodie:

En hårddisk kan ju vara bra att ha också. Eller ska det ingå i grafikkortet? Jobbigt att uppgradera lagringen isåfall.

https://www.sweclockers.com/nyhet/40216-tillverkare-gor-grafi...

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem
Skrivet av dodie:

En hårddisk kan ju vara bra att ha också. Eller ska det ingå i grafikkortet? Jobbigt att uppgradera lagringen isåfall.

Finns ju redan grafikkort där man har integrerat lagringsplatser för M.2 enheter
Edit.. Äsch. Lita på Sweclockers att någon annan varit snabbare på att poängtera den nyheten.

Visa signatur

Teknik är en drog..
Förövrigt anser jag att Carthago borde ödeläggas.

Permalänk
Medlem
Skrivet av dodie:

En hårddisk kan ju vara bra att ha också. Eller ska det ingå i grafikkortet? Jobbigt att uppgradera lagringen isåfall.

Kanske bättre med en M.2 än en gammal dinosaur

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk

så han föreslår altså "grafikkort" som är mer eller mindre en dator med allt inkluderat på ett kretskort...

låter som moderkortet på en laptop där allt sitter lött på en och samma pcb eller som i artikeln en spelkonsoll...

eller syftar han mer på typ ett all in one chip som har alla komponenter cpu,gpu,ram,lagring, andra delar i ett gigantiskt chip?

Skrivet av dodie:

En hårddisk kan ju vara bra att ha också. Eller ska det ingå i grafikkortet? Jobbigt att uppgradera lagringen isåfall.

fastlött ram och lagring på pcb är ju ett alternativ... Apple brukar väl hålla rätt stenhårt på detta om jag inte mins fel i sina laptops.

Visa signatur

ASUS B550-f-Gaming, R9 5800X3D, HyperX 3200Mhz cl16 128Gb ram, rtx 3070ti.
[Lista] De bästa gratisprogrammen för Windows
[Diskussion] De bästa gratisprogrammen för Windows

Permalänk
Medlem

Jo, men lite av det roliga med en dator är ju att den består av delar som går att uppgradera/byta ut?

Visa signatur

🖥️:Phanteks Evolv X | Ryzen 7 5800X3D | Noctua nh-d15 chromax.black | 8x Noctua NF-P14s Redux 1500 | Gigabyte x470 Aorus Gaming 7 Wifi | Kingston Renegade 32Gb 3600Mhz | Samsung 990 Pro | ASUS TUF 3080 12Gb | Cougar CM 700W | Acer XB27HU | Mionix Naos QG | CM Storm QuickFire TK MX Blue |

"Bättre bli motbevisad - än förklarad skyldig"

Permalänk
Medlem
Skrivet av dodie:

En hårddisk kan ju vara bra att ha också. Eller ska det ingå i grafikkortet? Jobbigt att uppgradera lagringen isåfall.

Vore smidigt att kunna uppgradera grafiken också, vad sägs om en PCIe slot på grafikkortet?

Permalänk
Medlem

Fast det är ju bara att dom integrerat ett pci-e till m.2 adapter på grafikkoret, eftersom grafikkretsen inte själv utnyttjar alla pci-e banorna i en x16 slot.

Mer korrekt exempel skulle nog vara Radeon Pro SSG som har M.2 slots.
Även dessa dök upp i Windows som vanliga diskar, men dom var kopplade genom grafikkretsen och kunde, med ett visst API från AMD, även användas som en sorts minne för grafikkretsen i sig. På så vis slapp kretsen skicka en massa förfrågningar till processorn för att få data.

Dock var det typ ingen som implementerade stöd, bland offentligt tillgängliga mjukvaror, möjligtvis att mer specialskrivna arbetslaster fanns. Det blev dock bara en generation med denna feature, så svårt att tro att det var nämnvärt populärt.

Permalänk
Medlem

Så en SoC på ett kort... like en pi CM (compute module)...
Finns ju redan hela datorer på "PCIE" kort där "moderkortet" i stort sett bara är ett backplane för resten av expansions slotsen och strömförsörjning.

Visst vore det coolt om man liksom kunde göra linux kernel -på- GPU och hela GPU'n kör OS och spel utan en traditionell "CPU" men...

varför?

Visa signatur

Xeon E5450@3.2ghz
9800GTX+

Permalänk
Medlem

Carmacks inlägg handlar väl om att bredda GPU:ers funktionalitet, särskilt genom att låta dem arbeta mer självständigt och skalbart? Idén om att integrera diagnostiska funktioner eller en lättvikts-Linuxdistribution är exempel på detta, men det betyder inte att han föreslår att GPU:er ska bli hela datorn. Det känns lite som att nyheten tolkar hans idéer som mer radikala än vad han faktiskt uttryckt.

Om grafikkortet ska ta över all logik i ett spel måste den ha en CPU anpassad för den typen av beräkningar. Det är just genom att separera komponenter som vi får möjligheten att anpassa systemen efter våra behov. Så nej, jag tolkar inte alls hans inlägg så.

Edit: Jag kan inte ens tolka det så som skribenten gjort även om jag försöker.

Visa signatur

System: AMD Ryzen 7 9800X3D, 64 GB RAM, RTX 5080
Shitlist: Asus, NZXT

Permalänk
Medlem

Vänta nu här. Är det inte egentligen en vanlig CPU med iGPU han pratar om. Om grafikkortet har allt som krävs för att vara en komplett dator så kan man nog inte kalla det för grafikkort längre. Gissningsvis så är det väl dit nVidia vill gå, alltså bygga ännu smaskigare grafikkort med egna ARM kärnor. Det känns som att datormarknaden är påväg åt samma håll som moderna bilar. Man ska inte kunna fixa eller ens bygga ihop något själv, allt ska vara färdigbyggt med allt integrerat så att man tvingas köpa allt nytt varje gång man vill uppgradera.

Permalänk
Medlem

Han säger egentligen bara att han tycker att grafikkort borde kunna visa diagnostikinformation om man ger dem ström utan att ha dem inkopplade i en dator, och det är bara en fotnot i inlägget som mest handlar om att kedjekoppla grafikkort. Det hade varit bättre att skriva en nyhet om det istället eftersom det faktiskt skulle vara riktigt användbart för att felsöka grafikkort.

Permalänk
Medlem

Ja den här artikeln skjuter tyvärr helt bredvid målet, fick mig dock att läsa Carmacks tweet i originalutförande... skärpning! @Edin_II

Visa signatur

🛜🫀: HP 290 PRO G9, i3 14100, 8GB DDR4, Intel X520-DA2
🐳🐧: AMD R5 3600 | Google Coral.ai | ASRock X570D4U-2L2T | Silverstone CS381 | 80GB DDR4 | 8 HDD BTRFS RAID1
⌨️🎮: i5 12400F | RTX 4070 | Acer XF270HUA | 16GB @ 3600 | MSI B760M-P DDR4 | CORSAIR C70
🎞🎶: LG OLED55C8 | Epson TW3200 | Onkyo TX-NR646 | Infinity Reference 61/51 mk2 | Shield TV V2 | minhembio.com

Permalänk
Medlem
Skrivet av tuomi:

Ja den här artikeln skjuter tyvärr helt bredvid målet, fick mig dock att läsa Carmacks tweet i originalutförande... skärpning! @Edin_II

Jag har läst hans tweet tre gånger och är fortfarande inte helt säker på vad han menar, så jag skulle inte vara allt för hård mot Edin den andre av sitt namn.

Permalänk
Medlem

Det sorgliga är att en speldator fortfarande skulle vara dyrare än en konsol om detta blev verklighet.

Visa signatur

Vardagsrum: LG C1 OLED 65" | Philips 28” CRT | OPPO 203 | Analogue Pocket + Dock | PS5 | XB Series X | N Switch OLED | XB One X | Wii U | PS3 | XB360 | Xbox | GameCube + GC Loader | PS2 + FMCB | Dreamcast | N64 + Everdrive | PS1 + PSIO | Saturn | Mega Drive Mini 2 | SNES Mini | Mega Drive Mini | NES Mini | HTPC: 3770K/GTX970/16GB DDR3/Loque Ghost S1

Permalänk
Medlem

Alla moderna grafikkort bör ju ha tillräckligt med arm-kärnor för att kunna agera fristående om de bara designades om

Finns dock mycket i spel som en traditionell processor är långt mycket bättre på än en gpu-kärna

Permalänk
Medlem

Ja, det är väl ditåt trenden gått under alla år, att komponenter integreras när standarder etablerats tillräckligt starkt och blivit bra nog åt de flesta, och det inte längre finns [mass]marknad för olika tillägg med aktuell funktion. På Pentiumtiden var det IDE-controllers, serie/parallellportscontrollers etc, i nästa generation var det ljudkortet som hamnade på moderkortet, sedan nätverk, USB, osv, osv. Senare evolution integrerade det där i sydbryggan. Idag sköts väl de flesta periferifunktioner i processorkapseln om jag inte misstagit mig.

Exakt vilken benämning den slutliga enda kvarvarande komponenten bör ärva kan man ju lämna som övning eller nåt. Har grafiken huvudnumret kanske det är lämpligt att kalla den grafikkort?

Visa signatur

Nu lurade jag dig att slösa bort ett par värdefulla sekunder av ditt liv på att läsa denna fullständigt poänglösa signatur!

Permalänk
Skrivet av Infiniti:

Det sorgliga är att en speldator fortfarande skulle vara dyrare än en konsol om detta blev verklighet.

det är lugnt de höjer bara priset på spelkonsoller och datorer till en ny högre samma nivå. mer vinst i fickorna åt alla utom konsumenten.

Visa signatur

ASUS B550-f-Gaming, R9 5800X3D, HyperX 3200Mhz cl16 128Gb ram, rtx 3070ti.
[Lista] De bästa gratisprogrammen för Windows
[Diskussion] De bästa gratisprogrammen för Windows

Permalänk
Medlem

ModerGPUn, sjävla hjärtat i hårddisken.

Permalänk
Redaktion
Nyhetsredaktör

Hej allesammans!

Jag har missförstått en del fakta. Sorry för det! Korrigeringar till texten kommer läggas in så fort som möjligt.

Permalänk
Medlem

Carmack skriver:

Citat:

You could go farther and put a tiny linux system running busybox on your command processor, and backchannel keyboard input through the display port if you don’t have a USB port.

Det är lite svårt att läsa sig till vad en "command processor" är, men verkar vara en aningen mer generell kärna som används för att orkestrera resten av grafikkortet. Och han verkar ju tänka sig att man kan köra ett enkelt linuxsystem på den här kärnan. Dock pratar han främst om någon form av testbild, så är nog verkligen en PoC och inget annat i det här läget.

Permalänk
Medlem

raspberry kan köras med 4090/5090

Visa signatur

AMD5600x | MSI GamingXTrio 3080 10GB | Oculus Rift

Permalänk
Medlem

Som jag förstår Carmack har hans "vision" har två lösningsvarianter idag, där den ena är likt MI300A och den andra som Tenstorrent Blackhole. Delar med mig vad som skulle egentligen bli lite spontana tankar, men blev lite mer än så.

TLDR:
GPUer behöver CPU instruktioner för att starta och utföra arbete, så en on board CPU skulle kunna avlasta stor del av arbetet, unified memory arkitektur är en viktig komponent för att minska kopiering mellan CPU och GPU.
Att ha en on board OS skulle kunna göra systemet ännu mer autonomt.

The long read, gällande dessa två lösningsvarianter som finns idag:
MI300A har flera GPU enheter och en 24 kärnig Zen enhet, där host CPUn via ROCm skickar initiala "high level" instruktionerna till kortet där on board CPUn (beroende på hur man kodar) sköter de mera intensiva "low level" instruktionerna till GPU/compute delen, tänk typ minskad draw calls.
Den är fortfarande beroende av host CPUn, men skulle i princip kunna köra Carmacks vision.
MI300A är som en GPU där CPU komponenten kompletterar med vissa instruktioner över en unified memory arkitektur, d.v.s. de behöver då inte kopiera data mellan deras domäner (minnen) likt en APU med shared memory, men till skillnad från en APU är MI300A ganska beroende på host CPU ändå, då den inte kör en egen on board OS.

Blackhole däremot har ett par (16st) stora RISC-V CPUer och flera hundra "Baby RISC-V" processorer för enklare funktioner (som routing och enklare "host beteende").
Blackhole kör med en egen Linux kernel (flera kernel:ar) på CPUn och på så vis behöver inte Blackhole förlita sig lika mycket på host CPU under körning.
Där blir det mera som att man kan skicka hela eller delar av programmet eller arbetsuppgiften och köra helt på on board CPUn för instruktionshanteringar till GPUn/Compute delen. Blackhole är då mindre beroende på host CPUn än MI300A, den är mera autonom m.a.o..

Carmack lägger vikten på att kunna "slänga på" ytterligare ett kort i sina system/datorn, och på så vis öka beräkningen automagiskt.
Skulle vi gå helt över till Raytrace eller Path tracing istället för raster så är det vara relativt enklare att dela upp arbetet och på så vis öka prestandan när vi slänger på ytterligare kort, även för en liknande arkitektur som vi har idag (den utan on board CPU samt utan unified memory mellan GPU och host CPU).

På tal om arkitektur och "on board" komponenter, skulle vi däremot börja använda oss mera utav AI beräkningar (vilket kommer att ske samt ger stor nytta för specifikt RT och PT) så behöver vi utöver on board CPU även flera andra "on board" AI accelerationer där samtliga komponenter är under en unified memory arkitektur.
Tänk AI accelerationer då som chiplets eller som inbyggda funktioner i GPUn (funktioner bl.a. som BVH acceleration som finns i dagens moderna GPUer).
Annars en annan approach skulle kunna vara att ha CxL, för att då kunna få till unified memory på vår befintliga arkitektur, dock blir det med högre latens jämförelsevis.

En liten parentes, skulle Apples M-chip "APU" vara som ett PCIe kort istället så skulle den också kunna räknas in, då den är mera som en stor GPU med en liten CPU del. Den har en (snabb) "unified memory" arkitektur där både CPUn och GPUn kan dela minne och på så vis inte behöva processorerna kopiera mellan deras domäner, och kan köra egen host OS.

En liten parentes 2, gamla Intel Larrabee har jag för mig hade en egen Linux kernel också, men den var mera en CPU i grunden med GPU vektor/grafik funktioner.

Permalänk
Medlem
Skrivet av CrazyDriver:

Vänta nu här. Är det inte egentligen en vanlig CPU med iGPU han pratar om.

Inte GPU med iCPU?

Svårt att sia om vad som blir viktigast i framtiden.
Dock intressant hur vi gått från klassiska scenariot med CPU och GPU till helt andra funktioner.

Tänker lite på exempelvis Apple Silicon som innehåller "allt" idag. Speciellt hur CPU och GPU numera samarbetar tillsammans med AI (Core ML).

Traditionella CPU:er från Intel och AMD ger jag inte mycket för.

Permalänk
Medlem
Skrivet av dodie:

En hårddisk kan ju vara bra att ha också. Eller ska det ingå i grafikkortet? Jobbigt att uppgradera lagringen isåfall.

Det har gått att köpa grafikkort från AMD med nvmeplatser ganska länge nu. De brukar dock inte vara för konsumensegmentet.

Visa signatur

2x Xeon E5-2699 v4, 256gb Quad Channel RAM, 2x nVIDIA 980ti
----
AMD Ryzen 5950X, 128gb Dual Channel RAM, 2x AMD 6900XT
----
Massiv amiga och 3dfx-samling.

Permalänk
Medlem
Skrivet av Tomasis:

raspberry kan köras med 4090/5090

Hur mycket utilisation får man ut av grafikkortet i en sådan lösning?