Test: 9950X3D överträffar förväntningarna
Permalänk
Hedersmedlem

Dubbel GPU på 850W nätdel?

Hej!

Efter min fru uppgraderat så råkar vi ha en extra GPU över hemma.

Det gör att jag funderar på att stoppa in den andra GPU:n i min egen PC, för att köra dual GPU. Det är två olika GPU:er, nämligen en RTX 3080 och en RTX 3070.

I övrigt ser min dator ut så här:

Fractal Design Define R5 (tror jag?)
Seasonic Focus GX-850 PSU
Asrock B550M Pro4 moderkort (sitter numera i ett större ATX-chassi där jag faktiskt får plats med 2 GPU:er)
Ryzen 7 3800X CPU
4x8GB (32GB) DDR4, 3200 MT/s
2 st NVMe (1000 GB, 500 GB)
1 st SATA SSD (2 TB)
NZXT Kraken X62 vattenkylare (overkill som fan för en 3800X, men den satt redan i chassit som jag tog över, och den var ett helvete att montera så jag tänker den får sitta där)

Jag är fullt medveten om att detta inte kommer ge mig några fler FPS i spel (och det är inte heller något jag är ute efter), och att multi-GPU för spelsyfte är typ helt dött. Jag tänker inte heller koppla ihop grafikkorten med SLI-brygga heller (går inte för övrigt, då det är två olika modeller)

Utan jag tänker att detta istället skulle kunna vara smidigt om jag vill köra tunga GPU-baserade beräkningar, som t.ex. AI-applikationer eller lösenordsknäckning. Men det inget jag gör särskilt ofta, och jag tänker inte köpa en ny PSU bara för den sakens skull.

Jag gjorde en uträkning på https://www.coolermaster.com/en-eu/power-supply-calculator/, som dock inte låter mig välja 3080+3070, utan jag fick mata in det som 2 x 3080, och då hamnade räknaren på 862 watt med min setup. Men jag antar att det kommer vara lite mindre eftersom det inte är 2 st 3080, utan ett 3080 och ett 3070. (2x 3070 ger 662 W, så 3070+3080 borde bli 762 W)

Brukar inte koppla in något energikrävande via USB. Någon hörlursladdare kanske ibland, men det är ju inte många watt. Och man behöver ju inte tokladda över USB samtidigt som man kör tunga beräknin

Nätdelen i fråga är en Seasonic Focus GX-850, så det är ju en PSU av hög kvalité. Förbrukningen torde hanma under 850 W också, så länge jag inte stoppar i jättemycket mer i datorn.

Kontaktmässigt ska det inte vara något problem, det ska följa med 3 st kablar för PSU, vilket ger totalt 6 st PCIe-kontakter.

Vad hade ni gjort? Hade ni bara kört? Självklart hade jag nog köpt en större PSU för att ha lite marginal, men jag köpte ju inte denna PSU med tanken att någonsin köra dubbel GPU Men nu när jag har detta, visst borde det vara lugnt?

Betänk också att, om jag väl ska köra några längre körningar med dubbel GPU så kan det hända att man maxar några timmar i taget...

Permalänk

Första frågan är väl lite varför?

Du koommer inte se någon fördel alls iom att du bara kommer använda en gpu åt gången.

Möjligen kan du ha den ena till typ rendera video samtidigt som du spelar med den andra.

Sli är utdött om det var tanken och slutade typ stödjas med 1000 serien eller om det var 2000 serien. Och även om sli fortfarande varit aktuellt så måste det vara två av samma modell eller iaf samma gpukärna och mängd videoram.

Visa signatur

ASUS B550-f-Gaming, R9 5800X3D, HyperX 3200Mhz cl16 128Gb ram, rtx 3070ti.
[Lista] De bästa gratisprogrammen för Windows
[Diskussion] De bästa gratisprogrammen för Windows

Permalänk
Hedersmedlem
Skrivet av Rouge of Darkness:

Första frågan är väl lite varför?

Du koommer inte se någon fördel alls iom att du bara kommer använda en gpu åt gången.

Möjligen kan du ha den ena till typ rendera video samtidigt som du spelar med den andra.

Sli är utdött om det var tanken och slutade typ stödjas med 1000 serien eller om det var 2000 serien. Och även om sli fortfarande varit aktuellt så måste det vara två av samma modell eller iaf samma gpukärna och mängd videoram.

Hej!

Svaret på din fråga finns i mitt inlägg. Det är inte för spel.

Permalänk
Medlem
Skrivet av Rouge of Darkness:

Första frågan är väl lite varför?

Du koommer inte se någon fördel alls iom att du bara kommer använda en gpu åt gången.

Mja.
Som jag har förstått det så kan en LLM typ Ollama nyttja 2 grafikkort samtidigt. Dock har jag fått uppfattningen att det inte kan särskilja dem hastighetsmässigt, dvs skicka mer än 50% av lasten till det snabbare kortet, utan det är 50/50 till vardera.
Har inte grävt i det, har bara noterat i förbigående.

Visa signatur

// men vad vet jag, fråga en expert istället

Permalänk
Hedersmedlem
Skrivet av mrTLU:

Mja.
Som jag har förstått det så kan en LLM typ Ollama nyttja 2 grafikkort samtidigt. Dock har jag fått uppfattningen att det inte kan särskilja dem hastighetsmässigt, dvs skicka mer än 50% av lasten till det snabbare kortet, utan det är 50/50 till vardera.
Har inte grävt i det, har bara noterat i förbigående.

Om det handlar om LLM:er så kan man använda MGPU på två sätt. Det ena är om man vill köra en modell som är större än vad som får plats i VRAM på ett grafikkort. Då går det inte snabbare direkt (snarare långsammare) men man *kan* köra modeller som man annars inte kunde köra. Oklart hur det funkar med två olika typer av grafikkort. Iaf är båda Nvidia och samma generation...

Andra sättet är att man kan köra två LLM:er parallellt, för flera samtidiga förfrågningar, vilket kan vara bra om man vill köra en server med flera användare.

Har inte heller jättekoll, men det är just precis såna här saker jag tänkt labba med. Givet att PSU:n håller alltså

Permalänk
Medlem

3070 drar ju runt 100W mindre än 3080, samt att såna där nätaggssidor alltid brukar överdriva en hel del. Så strömmen är nog inget problem.

Men det är nog bra att verkligen fundera på hur stor nytta du faktiskt har av två kort, det är långt ifrån all GPGPU-mjukvara som har stöd för flera grafikkort. Jag hade inte kört två grafikkort om jag inte hade något specifikt användningsfall där det faktiskt gör stor nytta, med tanke på alla nackdelar (ström, kylning, PCIe-banor).

Skrivet av pv2b:

Jag tänker inte heller koppla ihop grafikkorten med SLI-brygga heller (går inte för övrigt, då det är två olika modeller)

Du skulle inte kunna koppla ihop dem även om det var samma modell, det är endast 3090 som har stöd för SLI i 3000-serien.

Permalänk
Hedersmedlem
Skrivet av perost:

3070 drar ju runt 100W mindre än 3080, samt att såna där nätaggssidor alltid brukar överdriva en hel del. Så strömmen är nog inget problem.

Men det är nog bra att verkligen fundera på hur stor nytta du faktiskt har av två kort, det är långt ifrån all GPGPU-mjukvara som har stöd för flera grafikkort. Jag hade inte kört två grafikkort om jag inte hade något specifikt användningsfall där det faktiskt gör stor nytta, med tanke på alla nackdelar (ström, kylning, PCIe-banor).

Du skulle inte kunna koppla ihop dem även om det var samma modell, det är endast 3090 som har stöd för SLI i 3000-serien.

Det skulle ju absolut kunna vara användbart för att t.ex. köra hashcat och annat som inte kräver mycket PCIe-bandbredd.

Just nu är det så klart mest "för att det går" och jag råkar ha hårdvaran hemma. Och det är just av anledningarna du är inne på att min budget för detta är 0 kr. Går det så går det, liksom.

Nä men då tror jag att jag kan koppla in och prova iaf, utan att behöva oroa mig för att jag bränner något iaf. Tack!

Permalänk
Skrivet av pv2b:

Hej!

Svaret på din fråga finns i mitt inlägg. Det är inte för spel.

Läste igenom ditt inlägg för fort...

Ja det bör hur som helst troligen fungera. Är nätagget av någorlunda kvalisort så ska de slå ifrån om det ser för mycket last innan något går sönder.

Och detta är väl iaf teknet på att du bör byta.

Visa signatur

ASUS B550-f-Gaming, R9 5800X3D, HyperX 3200Mhz cl16 128Gb ram, rtx 3070ti.
[Lista] De bästa gratisprogrammen för Windows
[Diskussion] De bästa gratisprogrammen för Windows

Permalänk
Moderator
Moderator

Har inte kört några LLM, men inga problem att koppla och köra i sig, jag har kört liknande och då även med splitters inblandat.

Vet inte hur det ser ut för just de beräkningarna, men inte omöjligt att du kan reglera ned strömmen lite dessutom.
Kan skilja sig en del i hur kortet behöver lastas jämfört med om du skulle lira Cyberpunk, värt att kolla närmare på.

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.

Permalänk
Hedersmedlem
Skrivet av Daemon:

Har inte kört några LLM, men inga problem att koppla och köra i sig, jag har kört liknande och då även med splitters inblandat.

Vet inte hur det ser ut för just de beräkningarna, men inte omöjligt att du kan reglera ned strömmen lite dessutom.
Kan skilja sig en del i hur kortet behöver lastas jämfört med om du skulle lira Cyberpunk, värt att kolla närmare på.

Jag utgår från att om jag ska spela spel så belastas bara ena grafikkkortet, och att 3070:t inte används alls. Har inte ens kopplat in någon skärm dit.

Aja, jag har monterat in kortet nu, datorn POST:ar och allt dyker upp i lspci och lsblk så man får väl se sig som lyckligt lottad. (Får sedan se om man behöver någon bildskärm kopplad dit för att GPGPU-delen ska funka, har man ju hört talas om...)

Även om jag är lite skeptisk till hur väl kylningen för 3080:t kommer fungera, då 3070:ts fläktar hamnade precis vid kortet. Får hålla koll på temperaturerna helt enkelt.

Fick flytta USB3-kontakten bara då den hamnade i vägen för kortet där jag hade satt den innan, men var ju ingen stor grej.

Återstår ju att se om det här kommer vara användbart, och om temperaturerna kommer vara ett problem, men nu vet jag iaf att det inte är helt omöjligt.

Permalänk
Moderator
Moderator
Skrivet av pv2b:

Jag utgår från att om jag ska spela spel så belastas bara ena grafikkkortet, och att 3070:t inte används alls. Har inte ens kopplat in någon skärm dit.

Ah jag menade bara att korten (var för sig) kanske inte behöver dra maxeffekt när beräkningarna görs.

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.

Permalänk
Hedersmedlem
Skrivet av Daemon:

Ah jag menade bara att korten (var för sig) kanske inte behöver dra maxeffekt när beräkningarna görs.

Ah, du menar så. Ja det vore ju ett sätt att hantera om det visar sig att kylningen av 3080t blir lite undermålig när 3070:t sitter precis framför 3080:s friskluftsintag.

(Kommer ju inte sätta dem tvärtom, för jag vill ha mycket bandbredd till 3080:t, 3070:t får nöja sig med PCIe 3.0 x 4)