Nvidia Geforce RTX 5090: Utmärkt kort för dig som har råd

Permalänk
Medlem

Jag undrar när vi får grafik som är precis som animerade filmer.

Permalänk
Skrivet av landahl:

Jag undrar när vi får grafik som är precis som animerade filmer.

De som är gjorda i UE5 menar du?

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av Swedishchef_90:

De som är gjorda i UE5 menar du?

Just nu finns det ingenting som är i närheten av animerat.

Permalänk
Medlem
Skrivet av AMD73:

Ni gav bra prudukt på en scam prudukt.Som jag skrev här om dagen låg nivå och att detta är ett 5070 och
då är man snäll. Undra vad ni kommer ge 5070 som är ett 5060-.Sedan 5060 som är ett 5050. Skärpning!!!

Det står att Geforce RTX 5070 ska få TBP på 250 W.
Medan RTX 4060 har TBP på 115 W.

Det är en rätt stor ökning om man ska gå från 115W till 250W.
Om du säger att 5070 borde hetat 5060.

Åtminstone på RTX 4000 serien så var 4060 instegskortet.
Jag tycker att 200W+ är för mycket för ett instegskort.
Svårt exempelvis att göra lågprofilkort med rimlig ljudnivå för de som vill uppgradera en gammal kontorsdator eller dylikt.

Det hade varit skillnad om de hade kunnat leverera RTX 5070 prestanda till ~ 120W eller så.
Det och ett pris under 4000kr så hade jag köpt direkt.

Permalänk
Skrivet av landahl:

Just nu finns det ingenting som är i närheten av animerat.

https://youtu.be/P4z_BCWaLbU?t=98

Jag gissar vi behöver nog betydligt bättre gpuer tills dess... Söker man på hur de jobbar så förstår man att kraften för realtid animering sådär är enorm!

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 4x Noctua A14x25 2xT30, 1x Noctua A12x25, 3x ek loop

Permalänk
Medlem
Skrivet av landahl:

Jag undrar när vi får grafik som är precis som animerade filmer.

Vi kommer aldrig komma ifatt animerade filmer. Men visst, dagens spel är väl snyggare än Toy Story från 1995 Så en bättre fråga är väl när vi kommer ifatt dagens bästa (tekniskt sett) animerade filmer.

Permalänk
Medlem
Skrivet av tjobbo:

Ja, jag kör 1000mv eller vad det nu heter, men så fort jag slår på Raytracing och Pathtracing samt stänger av DLSS och sånt, så skjuter hotspot upp till 93°C, men gpu core ligger runt 62-68C

När kortet drar 350W är hotspot på 102°C. Jag har bytt kylpastan 3-4 gånger, och det har funkat bra i typ 4 veckor, men sen börjar det bli varmt igen.

Så fort kortet ligger runt 300W, så är hotspot på 93C

Hoppas att PTM7950 kommer lösa problemet.

Om inte, så åker det ut på annons om någon vill fixa det.

Vad är det för problem som uppstår med hotspot-temperatur vid endera 93C eller 102C?

Permalänk
Medlem
Skrivet av Lussarn:

På CPU-sidan där man är ännu närmare peak är vi idag glada om vi får 15% förbättring på några år. Det kommer givetvis hända GPU också. Enda skillnaden är att det inte accepterats ännu av vissa.

Nej, skillnaden är att på CPU-sidan har det funnits en hälsosam konkurrens.

Nu är det en nästan helt dominerande part som säger "sorry men nu nådde vi plötsligt max, nu får ni betala lika mycket men vänj er vid att korten inte blir snabbare längre". Dessa pajaskonster är inte bara möjliga utan förväntade med tanke på hur marknaden ser ut.

Detta är planerad stagnation.

Permalänk
Medlem
Skrivet av Sveklockarn:

Vad är det för problem som uppstår med hotspot-temperatur vid endera 93C eller 102C?

Märke inte av någon skillnad alls på clock etc!
Men känner mig inte helt bekväm när man ser att det blir 103C.
Kan inte tänka mig att korten mår så bra utav den värmen för länge!

Har alltid kört undervolt på kortet så det har aldrig varit så varmt som tur e.

Men Som alla säger om PTM7950, så är det magi.
Sänkte temperaturen från 103, till avg 75 när kortet drar 350W

Visa signatur

AMD Ryzen 7 7800X3D
ROG Astral GeForce 5080
HyperX 32GB DDR5 6000MHz
WD SN850 1TB
ASUS ROG Strix 27" WOLED

Permalänk
Medlem
Skrivet av Sveklockarn:

Nej, skillnaden är att på CPU-sidan har det funnits en hälsosam konkurrens.

Nu är det en nästan helt dominerande part som säger "sorry men nu nådde vi plötsligt max, nu får ni betala lika mycket men vänj er vid att korten inte blir snabbare längre". Dessa pajaskonster är inte bara möjliga utan förväntade med tanke på hur marknaden ser ut.

Detta är planerad stagnation.

PC-sidan behöver bli mer effektiv. Att man inser att man inte kommer kunna öka så mycket i prestanda längre som förr. Tekniken är inte där.

Menar jag tror vi aldrig kommer se ett grafikkort som drar mer än 600W, utan de kommer bli mer om effektiva. Tror nästa generation inte är så mycket snabbare utan drar betydligt mindre ström.

Sen kan man som med konsoler få ut mer av mindre, genom att effektivisera.

Men tror tyvärr mer och mer kommer bli AI-trams.. fake frames osv.

Permalänk
Hedersmedlem
Skrivet av esafesa:

Menar jag tror vi aldrig kommer se ett grafikkort som drar mer än 600W, utan kommer bli mer om effektivitet. Tror nästa generation inte är så mycket snabbare utan drar mindre ström.

Det är ju ett lite modigt påstående när 2080 Ti / 3090 / 4090 / 5090 i ordning haft TDP på 250 W, 350 W, 450 W, 575 W...

Jag håller dock med om att detta förhoppningsvis kan vara gränsen, om inte annat för att 600 W är max för 12V-2x6 som ändå är väldigt ny, och skapades för att en sladd ska räcka...
Tekniskt sett går väl 675 W om de delar upp så att 75 W dras från PCIe-porten.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk
Medlem
Skrivet av Thomas:

Det är ju ett lite modigt påstående när 2080 Ti / 3090 / 4090 / 5090 i ordning haft TDP på 250 W, 350 W, 450 W, 575 W...

Jag håller dock med om att detta förhoppningsvis kan vara gränsen, om inte annat för att 600 W är max för 12V-2x6 som ändå är väldigt ny, och skapades för att en sladd ska räcka...
Tekniskt sett går väl 675 W om de delar upp så att 75 W dras från PCIe-porten.

Något jag tycker Apple lyckas väldigt bra med på deras datorer. Är just hur effektiva de är. Den grafiska prestandan du får ut på de låga W de drar är otroligt bra!

Samt att deras bärbara datorer alltid har full prestanda utan strömkabel, så är det inte på många bärbara PCs.

----

Det är den vägen jag hoppas man går i vilket fall, samt ser man den grafiska prestandan 5090 är kapabel till, så borde man kunna optimera allt omkring för det ska "räcka" mer än vad det är tänkt.

Se på Nintendo Switch tex, helt sjukt att vad de fått ut på den prestandan den har.

Så nästa generation hoppas jag och tror inte ökar så mycket i prestanda, utan snarare blir betydligt mer effektiva. Samt att speltillverkare osv blir duktigare på att få ut mer av prestandan, som på konsolsidan som sagt.

Permalänk
Medlem
Skrivet av esafesa:

Något jag tycker Apple lyckas väldigt bra med på deras datorer. Är just hur effektiva de är. Den grafiska prestandan du får ut på de låga W de drar är otroligt bra!

Samt att deras bärbara datorer alltid har full prestanda utan strömkabel, så är det inte på många bärbara PCs.

----

Det är den vägen jag hoppas man går i vilket fall, samt ser man den grafiska prestandan 5090 är kapabel till, så borde man kunna optimera allt omkring för det ska "räcka" mer än vad det är tänkt.

Se på Nintendo Switch tex, helt sjukt att vad de fått ut på den prestandan den har.

Så nästa generation hoppas jag och tror inte ökar så mycket i prestanda, utan snarare blir betydligt mer effektiva. Samt att speltillverkare osv blir duktigare på att få ut mer av prestandan, som på konsolsidan som sagt.

Apple har faktiskt inte så bra prestanda/w när det kommer till grafiken.
CPU absolut men inte gpu.
När jag renderade en bild i blender var ofta mitt 4080s mer effektivt än min MBP M3 max tyvärr.

När jag drar igång blender så drar en M3 Max 100w ur vägguttaget utan problem och ändå var ett 4080S minst 3-4 gånger snabbare.

Visa signatur

Blank

Permalänk
Medlem
Skrivet av Thomas:

Att 5070, 5070 Ti och 5080 är klenare än sina namn syftar på däremot tycker jag inte är konstigt.
5080 är mer nedskuren (vad gäller % CUDA cores) än vad 3070 var mot 3090 Ti.

För att Nvidia "snålade" och valde att använda en ej konkurrenskraftig node. Så att referera till 30-serien i fråga om vad "kort ska vara" är inte lyckat, 30-serien var en udda fågel.

Det är det som är så hål i huvudet med "% CUDA cores"-tänket. Andemeningen är att man önskar få någon slags konstant definition av vad namnet innebär. Men det funkar inte. Toppen är inte nödvändigtvis någon konstant och således kommer då inte heller 80 vara någon konstant om man räknar det som en specifik % av toppen.

Så man får titta på andra parametrar istället.

5080 är minst "lika mkt 80-kort" som 4080, de är (till skillnad från 4090 och 5090, ett fall av icke-konstant topp med tillhörande prisskillnad*) snarlika (TDP är lite mer pushad på 5080, mot den högsta nivån för 80-kort någonsin).

Att prestandalyftet är urdåligt ijmf med vad man brukar få är ett faktum (get used to it). Men det kan man konstatera utan att falla in i tankevurpor runt kortens namngivning.

*Edit: Så visst,.det hade varit en bättre reflektion av verkligheten om 5090 hade hetat 5100. Hade gjort det tydligare att det inte är 80 som blivit sämre, utan att det är toppen som rusat vidare.

Innan 30 var det i modern tid rätt enkelt. 80 nyttjade som regel näst största chippet. Toppen nyttjade (förstås) största chippet som typiskt var "ggr 1.5 det näst största", dvs toppen var faktiskt konstant.

Den stora boven är 30-serien. Nvidia hade så dålig konkurrenskraft pga node-valet att 80 gjordes till en del av toppen (dvs det nyttjade toppchippet GA102 vilket garanterat inte var planen från början, det fanns trots allt ett GA103 därunder som inte nyttjades). För att göra det än värre introducerade man 90-namnet, trots att skillnaden toppen mot 80 var sämre än nånsin. Istället användes minneskonfiguration (clam-shell) för att motivera såväl namn som extrem skillnad i $$$.

Därefter kom 40 som distanserade toppen från 80 mer än vad man historiskt gjort, toppen rusade vidare (>1.5 ggr) och såväl namnet 90 som $$$-skillnaden var motiverat.

Och nu då 50, 5100 hade faktiskt varit motiverat (>>1.5 ggr). Kvar har vi 5080 som står still och är ett väldigt typiskt 80-kort.

Permalänk
Medlem
Skrivet av meanh:

Vet inte hur jag missade denna, tack för länken!

Detta understryker egentligen kritiken jag har mot Nvidias uttalanden om att vi nu är i "slutet för hur mycket mer rasteringsprestanda vi kan få". Jo, på den monolitiska design de levt på och förfinat de senaste generationerna är det säkert så. Folk här vill gärna bortse från att Nvidias intressen sträcker sig till att (som varje vinstdrivande bolag) få ut maximalt utbyte av sina investering, i detta fall hur mycket pengar man kan få ut på en kretsdesign med så få ändringar som möjligt.

Det klart att det finns en gräns för hur mycket man kan åstadkomma på samma yta kisel, men att folk accepterar att vi plötsligt skulle nått den gränsen oomkullrunkeligen på en (1) generation som dessutom tillverkas på samma litografiska process som föregående blir rätt löjligt när man tänker på det.

Nu lär vi dock få vänta och se hur det går för Nvidias konkurrenter, för om deras kommande grafikkort inte gör betydande framsteg så blir Nvidias 60-serie sannolikt bara en svag rehash av det vi fick nu.

Permalänk
Medlem
Skrivet av tjobbo:

Märke inte av någon skillnad alls på clock etc!
Men känner mig inte helt bekväm när man ser att det blir 103C.
Kan inte tänka mig att korten mår så bra utav den värmen för länge!

Har alltid kört undervolt på kortet så det har aldrig varit så varmt som tur e.

Men Som alla säger om PTM7950, så är det magi.
Sänkte temperaturen från 103, till avg 75 när kortet drar 350W

Jag får intrycket av dina inlägg att du kanske inte är speciellt kunnig, rätta mig om jag har fel, men förstår varför GPU-tillverkare går emot att göra så att användaren inte kan läsa av hotspot-värdet på framtida GPU:er -- det är för många som river isär sina grafikkort för att "fixa" något de är designade för att göra.

Som du påpekar själv finns det ingenting som påverkas prestandamässigt. Ska man överklocka och hålla på finns det såklart all anledning att uppgradera sin kyllösning, men finns väldigt lite att tjäna idag eftersom binningen av chippen i princip garanterar att de är nära maxnivån från fabrik på de flesta SKUs.

Du får såklart göra vad du vill med ditt kort, men livslängden kommer påverkas mycket mer negativt av att du tar isär kortet flera gånger och därmed upprepade gånger utsätter BGA-interfacen under minnen och GPU för krafter som är mycket större än den termiska expansionen någonsin kommer orsaka av drift.

Permalänk
Medlem
Skrivet av GuessWho:

Det hade varit skillnad om de hade kunnat leverera RTX 5070 prestanda till ~ 120W eller så.
Det och ett pris under 4000kr så hade jag köpt direkt.

Håll drömmen levande broder. 🥲

Utan att för den sakens skull vara kommunist så kan jag bara konstatera att utan kollektiva insatser från gamers så har vi antagligen ytterst små chanser att komma tillbaka till en sund GPU-marknad.

Permalänk
Medlem
Skrivet av Sveklockarn:

Håll drömmen levande broder. 🥲

Utan att för den sakens skull vara kommunist så kan jag bara konstatera att utan kollektiva insatser från gamers så har vi antagligen ytterst små chanser att komma tillbaka till en sund GPU-marknad.

Gäller att köpstyrkan försvagas helt enkelt så folk tvingas rösta med plånboken. Då kan de inte hålla på och pimpa ut ineffektiva bruteforce lösningar med miljontals transistorer behöver hitta på något effektivare.

Nu verkar det ju va rejält krångligt att producera och det i sig gör ju att det finns lite anledning försöka tjäna pengar på bulk när de inte klarar att få ut dem till konsumenterna och konkurrera med pris. Egentligen behövs det ju inte några nya generationer de hade ju lätt kunna vänta ett par år till med 5080 och fokuserat på att klara av att leverera 4080s. Släpp bara 5090 till professionellt bruk ej riktat mot konsumenter. Jag har inga problem med 4k gaming med 3080 fortfarande. Sen var jag tidig med att betala 16k då jag i ett svagt ögonblick landade med ett 2080ti. Fullkomligt vansinne ännu mer då än idag

Visa signatur

Corsair A850W
Intel I7-7700K Kaby Lake
Asus Z270H GAMING
16 gb RAM
msi 3080 suprim x

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag får intrycket av dina inlägg att du kanske inte är speciellt kunnig, rätta mig om jag har fel, men förstår varför GPU-tillverkare går emot att göra så att användaren inte kan läsa av hotspot-värdet på framtida GPU:er -- det är för många som river isär sina grafikkort för att "fixa" något de är designade för att göra.

Som du påpekar själv finns det ingenting som påverkas prestandamässigt. Ska man överklocka och hålla på finns det såklart all anledning att uppgradera sin kyllösning, men finns väldigt lite att tjäna idag eftersom binningen av chippen i princip garanterar att de är nära maxnivån från fabrik på de flesta SKUs.

Du får såklart göra vad du vill med ditt kort, men livslängden kommer påverkas mycket mer negativt av att du tar isär kortet flera gånger och därmed upprepade gånger utsätter BGA-interfacen under minnen och GPU för krafter som är mycket större än den termiska expansionen någonsin kommer orsaka av drift.

Nä kan inte påstå att jag är så kunnig i detta ämne, men något är galet när kylaren trycker bort all kylpasta efter ca 3-4 veckor.
Men vad vet jag, 103C hotspot kanske är normalt, föredrar dock 75-80 som det är nu, och ett tyst kort

Visa signatur

AMD Ryzen 7 7800X3D
ROG Astral GeForce 5080
HyperX 32GB DDR5 6000MHz
WD SN850 1TB
ASUS ROG Strix 27" WOLED

Permalänk
Medlem
Skrivet av tjobbo:

men något är galet när kylaren trycker bort all kylpasta efter ca 3-4 veckor.

Jo, det är ett välkänt fenomen som kallas "pumpning" (finns massor med information om detta från t.ex. der8auer), som bl.a. beror på att TIM har fel viskositet. Antar att ingenting försvann innan du bytte pastan?

Thermal pad:en du beställt kan säkert fixa problemet med pumpning av olämplig pasta.

Skrivet av tjobbo:

Men vad vet jag, 103C hotspot kanske är normalt, föredrar dock 75-80 som det är nu, och ett tyst kort

Ja man kan ju kyla det hur mycket som helst, faktum kvarstår att livslängden inte påverkas av lägre temperaturer eftersom det finns mekanismer som klockar ner och minskar effekten så att man aldrig når en kritisk temperatur -- vad den nu är idag, 120-130C.

Din "känsla" i sammanhanget är fel, och du skadar kortets livslängd mer genom att demontera det upprepade gånger. Blyfritt lödtenn är en bitch, vilket du antagligen kommer få erfara.

Permalänk
Medlem
Skrivet av Sveklockarn:

Jo, det är ett välkänt fenomen som kallas "pumpning" (finns massor med information om detta från t.ex. der8auer), som bl.a. beror på att TIM har fel viskositet. Antar att ingenting försvann innan du bytte pastan?

Thermal pad:en du beställt kan säkert fixa problemet med pumpning av olämplig pasta.
Ja man kan ju kyla det hur mycket som helst, faktum kvarstår att livslängden inte påverkas av lägre temperaturer eftersom det finns mekanismer som klockar ner och minskar effekten så att man aldrig når en kritisk temperatur -- vad den nu är idag, 120-130C.

Din "känsla" i sammanhanget är fel, och du skadar kortets livslängd mer genom att demontera det upprepade gånger. Blyfritt lödtenn är en bitch, vilket du antagligen kommer få erfara.

Så där såg det ut första gången det öppnades upp, kylpastan som asus har applicerat.

Ah nä kommer inte öppna upp mitt 5080, så vi kan nu släppa detta ☺️

Visa signatur

AMD Ryzen 7 7800X3D
ROG Astral GeForce 5080
HyperX 32GB DDR5 6000MHz
WD SN850 1TB
ASUS ROG Strix 27" WOLED

Permalänk
Medlem
Skrivet av tjobbo:

Så där såg det ut första gången det öppnades upp, kylpastan som asus har applicerat.

Ah nä kommer inte öppna upp mitt 5080, så vi kan nu släppa detta ☺️

Tja, har inte mycket till kommentar där förutom att hotspot-temps inte indikerar något problem i sig själva när de ligger inom förväntade värden. Finns en likadan idé med CPU:er och folk som är livrädda för att CPU:n ligger på 90 grader under hög belastning, varpå man gör stora ekonomiska insatser och massa arbete för att pressa ner en designat säker temperatur till något arbiträrt lägre värde som "känns" bättre -- för någon som inte ens läst på vilka temperaturspann som är inom förväntade parametrar.

Det är inget nytt fenomen med tillverkare som sätter dit sämsta möjliga TIM på sina GPU:er heller, råkade ut för detta när jag köpte mitt RTX 2080 från Gigabyte. Det som drabbar de kunderna är nog framförallt att de tappar prestanda och får ett högljutt kort där fläktarna går på 100% så fort man är i menyerna på spelet. Jag föredrar också ett tyst kort, men jag cappar min framerate för att nå det målet istället.

Det trista i sammanhanget är att alla "kortrivare" (med påföljande garantiärenden) har förstört möjligheterna till lika djupgående felsökning som fanns så länge användaren kunde läsa av hotspot. 🤷‍♂️

Permalänk
Medlem

Nu har jag sett de första VR benchmarksen och Wow! Mer minne och högre minnesbandbedd, vilket såklart jag visste skulle hjälpa mycket vid höga upplösningar, hjälper mycket mer än förväntat! Får mig vilja köpa ett 5090. Ibland mer än dubbelt så bra än 4090, oftast i alla fall minst 50-60% bättre samma som 4090 var gentemot 3090. Äntligen börjar vi få tillräckligt hög prestanda för visuellt bra VR, nu behövs bara en bra all around headset. Jag kanske köper ett 5090 om c.a 8 år när det kostar 5000-10000kr

Permalänk
Medlem
Permalänk
Medlem
Skrivet av wly:

Ooooooooooof....
Folk bör kolla upp att de har fått det de betalat för.

Visa signatur

i9-12900K | Z690 HERO | RTX 3080 | AOC 27" AG276QZD2 | 32GB DDR5 | H150i ELITE | PSU 1200W | SN850 2TB | SSD 1TB | HDD 1TB | WIN 11 | Meshify 2 Black | Kringutrustning: Logitech MX Keys | Logitech G Pro X Superlight 2
TV: LG 65" OLED65C8 | PS5 & Pulse 3D Wireless Headset, Series X & Xbox Wireless Headset & Elite Series 2

Permalänk
Medlem
Skrivet av esafesa:

Något jag tycker Apple lyckas väldigt bra med på deras datorer. Är just hur effektiva de är. Den grafiska prestandan du får ut på de låga W de drar är otroligt bra!

Tror du att någon hardcore gamer bryr sig ett skit om hur mycket ström datorn drar?
Nix, det är endast dom som sitter med en laptop och blir imponerade av lång batteritid, någonting som gamers ger blanka fan i.

Permalänk

Ganska segt att Nvidia inte har lyckats fixa sina drivrutiner än , kör 572,47 nu. Fortfarande skit, men mer prestanda i vissa spel...Kanske lägger de all sin energi på att korten inte ska brinna upp?

Visa signatur

I've somehow been WASDing my whole life

www.swecloker.com klick bait och betalda annosner. Om du vill veta något om överklockning dröm vidare till 90-talet

Permalänk
Medlem
Skrivet av xc:

Tror du att någon hardcore gamer bryr sig ett skit om hur mycket ström datorn drar?
Nix, det är endast dom som sitter med en laptop och blir imponerade av lång batteritid, någonting som gamers ger blanka fan i.

Stämmer ju inte riktigt, men jag förstår poängen. Jag tycker inte att det är värt att det drar massa mer i ström för en liten prestandaökning.

Permalänk
Medlem
Skrivet av xc:

Tror du att någon hardcore gamer bryr sig ett skit om hur mycket ström datorn drar?
Nix, det är endast dom som sitter med en laptop och blir imponerade av lång batteritid, någonting som gamers ger blanka fan i.

Det gör man när man har ett kontor eller rum som är mindre än 6m2
Mitt kontor som är runt 6m2 blir väldigt varmt väldigt snabbt med ett 4090 och en 9800x3d.
Funderar på om jag ska kolla på vattenkylningen på golvvärmesystemet för att bli av med värmen.

Visa signatur

Blank

Permalänk
Medlem

Skandalerna fortsätter rulla in.
Måste börja bli svettigt för her Jensen. 😅

Visa signatur

Zalman i3 Neo (Asus TUF Gaming B650-E Wifi/R5 7600/32GB ram/Intel Arc B580 12gb/2TB M.2 SSD)
Acer Aspire XC-780 (Pentium G4560/8GB ram/Nvidia GTX 1050 2GB/500GB SSD)
Acer spin 513 Chromebook (ARM Qualcomm processor/4GB ram/64 GB lagring)
Raspberry pi 400
(Retrodatorer av div slag, Atari, Amiga, C64, IBM mm…)