Lägre efterfrågan från AMD och Nvidia drabbar TSMC

Permalänk
Melding Plague

Lägre efterfrågan från AMD och Nvidia drabbar TSMC

TSMC hade överlag ett starkt 2022, men minskad efterfrågan från storkunder påverkar halvledarjätten under 2023.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

El-kris, osäkerhet m.h.t krig och råvaror och överdrivna priser på div. elektronik, ökade hushållnings kostnader i Europa, Canada och Amerika och det faktum att folk återvänder till kontoret efter några långa år hemma är nog en stor del av detta.

Jag tycker det finns nåt positivt i det hela, t.ex. att vi använder produkten längre, återvinner och inte bara slänger så fort det kommer nåt nytt. Hoppas det ger industrien en pekare om att satsa på långvariga produkter som håller i sig, länge support, flera uppdateringar etc.

Permalänk
Medlem

Så går det när de sätter orimliga priser på sina produkter, dom får skylla sig själva.

Att slå rekord år efter år även under pandemin och tro det ska fortsätta under en lågkonjunktur fattar väl vem som helst.

Egentligen ingen nyhet. Helt normalt i en lågkonjunktur.

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk

Det är inte bara här på sweclockers som folk ständigt klagar på att det är så dyrt.

Det beror såklart på att priset är högre än efterfrågan, men att endast sänka priset om tillverkningskostnaden inte går sänka så blir det ej lönsamt.
Ser man på den tekniska utvecklingen så har den kommit så långt fram så folk skulle överleva en stagnation, det är dock tråkigt på Ai området som idag ofta ligger på nivån att det går ifrågasätta om en sådan Ai lösning är bättre än en traditionell? Många problem finns, dyr datakraft är ett av problemen.

Permalänk
Medlem

...ett svar på lägre efterfrågan på bland annat datorer, grafikkort, surfplattor och telefoner...

Det känns logiskt för många faktorer som spelar in här.

Det som inte känns logiskt är att ingen (Amd, Intel, Nvidia) vill slå till och erövra marknads andelar. Det är ju ganska bra ögonblick även om det är riskabelt. En förklaring kan vara att de är för fega, sitter ganska bra där de är och väntar. Om man förstör marknaden för konkurrenter kan man lika lätt förstöra den för sig själv.

Permalänk
Skrivet av JoOngle:

El-kris, osäkerhet m.h.t krig och råvaror och överdrivna priser på div. elektronik, ökade hushållnings kostnader i Europa, Canada och Amerika och det faktum att folk återvänder till kontoret efter några långa år hemma är nog en stor del av detta.

Jag tycker det finns nåt positivt i det hela, t.ex. att vi använder produkten längre, återvinner och inte bara slänger så fort det kommer nåt nytt. Hoppas det ger industrien en pekare om att satsa på långvariga produkter som håller i sig, länge support, flera uppdateringar etc.

Vill du tävla mot naturens lagar? Hur lätt tror du det är att minska noderna? Det är riktigt svårt och väldigt dyrt nuförtiden. Det är inte tidigt 90-tal längre.

Lite kul att vi hade stagnation på 28 nanometer under fyra nästan fem år med grafikkort, alltså tre generationer från AMD HD 7970 på 28 nm år 2011 tills AMD släppte AMD RX 480 på 14 nm år 2016.

Det är dags att låta 5nm noden mogna lite innan vi ger oss på 3nm. Apple har råd men det visste vi redan samma med Nvidia men nu ser vi Applepriser med Nvidia också. Jag har inget emot haloprodukter med skyhögt pris men när mellan och högre mellansegmentet blir dyrt då blir det lite tråkigt.

Permalänk
Medlem
Skrivet av friArsenik:

...ett svar på lägre efterfrågan på bland annat datorer, grafikkort, surfplattor och telefoner...

Det känns logiskt för många faktorer som spelar in här.

Det som inte känns logiskt är att ingen (Amd, Intel, Nvidia) vill slå till och erövra marknads andelar. Det är ju ganska bra ögonblick även om det är riskabelt. En förklaring kan vara att de är för fega, sitter ganska bra där de är och väntar. Om man förstör marknaden för konkurrenter kan man lika lätt förstöra den för sig själv.

Du tänker på klassiska ”gasa sig ur krisen”. Det är ett tänkbart scenario men alldeles för tidigt att börja gasa nu utan att veta vart det bär av till…

Sen ska man inte glömma att detta inte är en traditionell lågkonjunktur utan det är rätt många ”nya” element med här som världen aldrig upplevt (eller iaf inte i modern tid) såsom skyhöga statsskulder, överhettad penningmarknad, pandemi, skenande bostadspriser, logistiska utmaningar och skenande priser etc etc etc.

Ingen vet riktigt om det blir en mild dipp och snabb återhämtning eller magplask deluxe

Visa signatur

| AMD Ryzen 5 5600X | Asus Rog B550-i gaming | Sapphire Radeon 6800 refkort | Viper Steel Patriot 16gb 4400mhz | Sabrent NVMe Rocket 1TB + Samsung 970 1TB | Corsair 750W SFX | Cooler Master NR200P | Vattenkyld custom loop

Permalänk
Medlem
Skrivet av Dinkefing:

Vill du tävla mot naturens lagar? Hur lätt tror du det är att minska noderna? Det är riktigt svårt och väldigt dyrt nuförtiden. Det är inte tidigt 90-tal längre.

Lite kul att vi hade stagnation på 28nanometer under fyra nästan fem år med grafikkort, alltså tre generationer från AMD HD 7970 på 28nm år 2011 tills AMD år 2016 släppte AMD RX 480 på 14nm.

Det är dags att låta 5nm noden mogna lite innan vi ger oss på 3nm. Apple har råd men det visste vi redan samma med Nvidia men nu ser vi Applepriser med Nvidia också. Jag har inget emot haloprodukter med skyhögt pris men när mellan och högre mellansegmentet blir dyrt då blir det lite tråkigt.

Det är nog detta sista som är nyckeln. De nya processerna är svindyra per transistor för att det kostar absurda mängder att utveckla nya fabriker för nya processer. Om man använder varje process i fyra år istället för två, kan man betala av den investeringen på dubbel så många chip och får lägre priser.

Dessutom: gör några lågpriskort på 7nm eller dess varianter. Ryktena talar om att Navi 33 skall vara ett 6nm-kort, så om AMD håller ner priset på det så kanske det blir något bra.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Det är nog detta sista som är nyckeln. De nya processerna är svindyra per transistor för att det kostar absurda mängder att utveckla nya fabriker för nya processer. Om man använder varje process i fyra år istället för två, kan man betala av den investeringen på dubbel så många chip och får lägre priser.

Detta!

Man kan ju ta Nintendo Switch som ett exempel på att det går att använda mindre ambitiös hårdvara och fortfarande vara i toppen.
Jag har alltid varit för snabbare PC, grafikkort etc. isär då min stora passion är 3D modellering och animation.

Men det finns läge att återanvända mera, programmera mera optimalt och utnyttja den processorkraft vi redan har (som jag tycker är mera än rikligt). Visst är det kul med RTX och special effekter som ger naturligt ljus etc, men allt detta går att göra i post-processen vart man kan baka in ljusspridning/färger/radiocity etc. i speltexturen.

Vi är uppe på ett nivå i dagsläget vart vi ska börja tänka om hur mkt. vi behöver. Ta 1080p och 4K t.ex. Youtube skruvar ner till lägre upplösning nu även om du sätter 4K som default, så kan den hoppa till 1080p läge - baserat på att folk faktisk inte ser skillnad. Samma med 4K vs 8K (8K är helt hopplöst mycket för t.ex. en 55-65" skärm) och man kan diskutera på ett nördigt plan hur mkt. behov vi har av det.

Jag ser hellre att vi satsar på att använda den teknik vi har och längre än att slösa på dyra naturresurser när vi ändå har kommit så långt.

Permalänk
Medlem
Skrivet av mastrovious:

Du tänker på klassiska ”gasa sig ur krisen”. Det är ett tänkbart scenario men alldeles för tidigt att börja gasa nu utan att veta vart det bär av till…

Sen ska man inte glömma att detta inte är en traditionell lågkonjunktur utan det är rätt många ”nya” element med här som världen aldrig upplevt (eller iaf inte i modern tid) såsom skyhöga statsskulder, överhettad penningmarknad, pandemi, skenande bostadspriser, logistiska utmaningar och skenande priser etc etc etc.

Ingen vet riktigt om det blir en mild dipp och snabb återhämtning eller magplask deluxe

Ingen vet riktigt... Men man vet ju aldrig. Allt är rent gissning.

Läste först "Gasa sig ur skiten"
Magplask deluxe

Permalänk
Medlem

Det här med "marknaden" gäller visst bara där hög efterfrågan ger högre priser. Det rimliga borde ju vara att när efterfrågan dyker så dyker också priserna. Men då är inte "marknaden" lika rolig längre om man är företag så då går det tydligen finfint att hitta på något annat istället.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av JoOngle:

Detta!

Man kan ju ta Nintendo Switch som ett exempel på att det går att använda mindre ambitiös hårdvara och fortfarande vara i toppen.
Jag har alltid varit för snabbare PC, grafikkort etc. isär då min stora passion är 3D modellering och animation.

Men det finns läge att återanvända mera, programmera mera optimalt och utnyttja den processorkraft vi redan har (som jag tycker är mera än rikligt). Visst är det kul med RTX och special effekter som ger naturligt ljus etc, men allt detta går att göra i post-processen vart man kan baka in ljusspridning/färger/radiocity etc. i speltexturen.

Vi är uppe på ett nivå i dagsläget vart vi ska börja tänka om hur mkt. vi behöver. Ta 1080p och 4K t.ex. Youtube skruvar ner till lägre upplösning nu även om du sätter 4K som default, så kan den hoppa till 1080p läge - baserat på att folk faktisk inte ser skillnad. Samma med 4K vs 8K (8K är helt hopplöst mycket för t.ex. en 55-65" skärm) och man kan diskutera på ett nördigt plan hur mkt. behov vi har av det.

Jag ser hellre att vi satsar på att använda den teknik vi har och längre än att slösa på dyra naturresurser när vi ändå har kommit så långt.

Enda jag läste var "Äh bilar är inget bra, tycker vi kan stanna kvar med häst och droska ett tag till"; Snabbare hårdvara ftw!

Finns inget som hindrar oss från att programmera mera optimalt, SAMTIDIGT som vi också får snabbare hårdvara. Och har du inte råd med hårdvaran så är det fritt fram att inte köpa den/vänta 1-2-3år å först då köpa istället, samtidigt som andra som har råd kan driva på utvecklingen. Vi har stått stilla länge nog pga konsoller att det är najs nu när det äntligen börjar dra igång igen med hårdvaru race.

Permalänk
Medlem

Inte för att jag känner nån sympati för företag som pushat för greedflation men avgifter som kemikalieskatten och copyswede hjälper inte i dessa tider.

Permalänk
Skrivet av JBerger:

Enda jag läste var "Äh bilar är inget bra, tycker vi kan stanna kvar med häst och droska ett tag till"; Snabbare hårdvara ftw!

Finns inget som hindrar oss från att programmera mera optimalt, SAMTIDIGT som vi också får snabbare hårdvara. Och har du inte råd med hårdvaran så är det fritt fram att inte köpa den/vänta 1-2-3år å först då köpa istället, samtidigt som andra som har råd kan driva på utvecklingen. Vi har stått stilla länge nog pga konsoller att det är najs nu när det äntligen börjar dra igång igen med hårdvaru race.

Samma argument har använts hela tiden på att det är tillräckligt bra. Jag ser Amiga VS X86 debatterna på 1990 talet, även hur folk sa att mobiltelefonerna runt år 1997 var tillräckligt utvecklade och ej såg behov att förbättra dem mer.
Det enda speciella nu är att vi börjar närma oss en veklighet där vi kanske får anpassa oss att datorhårdvarans utveckling stagnerar.

Jag själv ser det stora problemet med Ai. Jag har svårt att se hur vi ska få till självkörande bilar, hushållsrobotar och annat utan mycket mer datakraft. Andra områden som spel, filmmarknaden etc skulle överleva om utvecklingen stagnerade. Såklart att optimering är en lösning på även Ai, men min bild är att Ain idag är så dålig så brutalt mycket mer datakraft är en förutsättning för att mycket Ai problem ska gå lösas.

Permalänk
Medlem
Skrivet av JBerger:

1)... Snabbare hårdvara ftw!

2) Finns inget som hindrar oss från att programmera mera optimalt, SAMTIDIGT som vi också får snabbare hårdvara.

3) Och har du inte råd med hårdvaran så är det fritt fram att inte köpa den/vänta 1-2-3år å först då köpa istället, samtidigt som andra som har råd kan driva på utvecklingen.

4) Vi har stått stilla länge nog pga konsoller att det är najs nu när det äntligen börjar dra igång igen med hårdvaru race.

1) Snabbare hårdvara - till ett rimligt pris tack.

2) Jo, det finns. Det är kunskapsbrist och slöhet, i kombination med för stor beräknings kraft och billig el. Det är ungefär överallt så här. Titta på byggbranschen bara...
Obs! Billig el börjar ta slut.

3) Problemet är att det blir inte billigare... Titta bara på Nvidia kort efter 2år...

4) Vi stod inte stilla. Vi lärde oss att programmera mer effektivt och utnyttja den hårdvara man har mer optimalt. Tack konsoller. Skulle gärna vilja se max Low mid chip (2 av 9 där 9 är typ 4090 och 2 är typ 4050 max, gärna 4040) i nästa generations konsoller, för att spelutvecklarna skulle bli ännu bättre på att programmera, och inte tvinga "vanliga gamers att jaga Halo-produkter.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Samma argument har använts hela tiden på att det är tillräckligt bra. Jag ser Amiga VS X86 debatterna på 1990 talet, även hur folk sa att mobiltelefonerna runt år 1997 var tillräckligt utvecklade och ej såg behov att förbättra dem mer.
Det enda speciella nu är att vi börjar närma oss en veklighet där vi kanske får anpassa oss att datorhårdvarans utveckling stagnerar.

Jag själv ser det stora problemet med Ai. Jag har svårt att se hur vi ska få till självkörande bilar, hushållsrobotar och annat utan mycket mer datakraft. Andra områden som spel, filmmarknaden etc skulle överleva om utvecklingen stagnerade. Såklart att optimering är en lösning på även Ai, men min bild är att Ain idag är så dålig så brutalt mycket mer datakraft är en förutsättning för att mycket Ai problem ska gå lösas.

Med dagens människans dumhet tror jag inte på massproduktion och användning av självkörande bilar (inte närmsta 100 år) på vägar där vanliga bilar körs. Titta bara på taxi bilförarna och bilförarna av Mercedes, BMV och Audi.

Permalänk
Medlem
Skrivet av JBerger:

Enda jag läste var "Äh bilar är inget bra, tycker vi kan stanna kvar med häst och droska ett tag till"; Snabbare hårdvara ftw!

Finns inget som hindrar oss från att programmera mera optimalt, SAMTIDIGT som vi också får snabbare hårdvara. Och har du inte råd med hårdvaran så är det fritt fram att inte köpa den/vänta 1-2-3år å först då köpa istället, samtidigt som andra som har råd kan driva på utvecklingen. Vi har stått stilla länge nog pga konsoller att det är najs nu när det äntligen börjar dra igång igen med hårdvaru race.

Vad vet du om jag inte har råd med hårdvaran? Behöver jag skylta med att jag HAR hårdvara långt över genomsnittet i världen, Sverige inkluderat för att framföra ett argument?

Det är så att jag VILL minska rovdriften på våra resurser, det är så att jag VILL nya chips ska utvecklas men med energisnålhet i syfte och bättre återanvändning av existerande teknologi. Och det är knappast någon konkurrens, vi har Nvidia, AMD och Intel och det är helt tydligt att dom har lärt av oss som bara pungar ut att det är okej att ta 20-25K för ett grafikkort och 10K för ett i mellanklassen.

Utvecklingen inom teknologi, medicin, vetenskap kommer att gå oavsett vad vi är villiga att betala.

Permalänk
Medlem
Skrivet av JoOngle:

El-kris, osäkerhet m.h.t krig och råvaror och överdrivna priser på div. elektronik, ökade hushållnings kostnader i Europa, Canada och Amerika och det faktum att folk återvänder till kontoret efter några långa år hemma är nog en stor del av detta.

Jag tycker det finns nåt positivt i det hela, t.ex. att vi använder produkten längre, återvinner och inte bara slänger så fort det kommer nåt nytt. Hoppas det ger industrien en pekare om att satsa på långvariga produkter som håller i sig, länge support, flera uppdateringar etc.

Om vi börjar använda produkterna längre kommer företagen att ta planerat åldrande till nya nivåer. Lite som Apple gör nu fast ännu värre. Saker som går sönder, inte går att uppdatera eller blir mer komplicerade att laga så att det inte blir lönt. Företagen kommer göra allt de kan för att sälja nya prylar.

Permalänk
Medlem
Skrivet av friArsenik:

1) Snabbare hårdvara - till ett rimligt pris tack.

2) Jo, det finns. Det är kunskapsbrist och slöhet, i kombination med för stor beräknings kraft och billig el. Det är ungefär överallt så här. Titta på byggbranschen bara...
Obs! Billig el börjar ta slut.

3) Problemet är att det blir inte billigare... Titta bara på Nvidia kort efter 2år...

4) Vi stod inte stilla. Vi lärde oss att programmera mer effektivt och utnyttja den hårdvara man har mer optimalt. Tack konsoller. Skulle gärna vilja se max Low mid chip (2 av 9 där 9 är typ 4090 och 2 är typ 4050 max, gärna 4040) i nästa generations konsoller, för att spelutvecklarna skulle bli ännu bättre på att programmera, och inte tvinga "vanliga gamers att jaga Halo-produkter.

1) Allt nytt är (relativt) dyrt initialt. Tror du vi hade haft svinbilliga 46" plattTVar idag om de inte hade släppt de första svindyra plattTVarna i början?

2) Var tusan kommer byggbranschen in i "programmera mer optimalt"..? Men visst, vi har idag extra mycket beräkningskraft som gör att man inte måste kunna ASM som rinnande vatten, eller C/C++, utan kan istället koda ett hyffsat snyggt och relativt optimerat spel (=hög fps) i t.ex. unity eller unreal engine, utan att behöva kunna alla ins-and-outs. Det har ju gett oss 1000000% fler spel per år att välja mellan, jämfört med back in the old days. Att ens dator drar några Watt mer är ett billigt pris att betala.

3) Du får zooma ut lite och inte bara titta på nvidia kort de senaste två åren. Ta plattTV exemplet ovan.

4) Utvecklingen stendog nånstans under första-andra XBOX (2001 och 2005) eran tycker jag. Innan det gick pc-spel-marknaden från Doom 1993, Quake 1 1996, Half-Life 1998, Unreal 1998, ett gäng call of duty/modern warefare spel som blev snyggare och snyggare, å så Crysis 2007. Men därefter hände inte mycket. Inte för inget som memen "But can it run crysis?" blev/är så populär, för det var det snyggaste (och mest tungdrivna, när allt var på max) spelet i många många många år.
Personligen skyller jag på Golden Eye på N64 som startskottet då konsolltillverkare såg att FPS (a.k.a. PC Spel) gick att göra till konsoller och de var populära, så alla PC spel förfulades och dummades ner så de gick att lira på konsoll med å hårdvaruindustrin kunde ligga på latsidan för det kom bara en ny konsoll var 5-8år eller nånting sånt.

Permalänk
Medlem
Skrivet av JoOngle:

Vad vet du om jag inte har råd med hårdvaran? Behöver jag skylta med att jag HAR hårdvara långt över genomsnittet i världen, Sverige inkluderat för att framföra ett argument?

Det är så att jag VILL minska rovdriften på våra resurser, det är så att jag VILL nya chips ska utvecklas men med energisnålhet i syfte och bättre återanvändning av existerande teknologi. Och det är knappast någon konkurrens, vi har Nvidia, AMD och Intel och det är helt tydligt att dom har lärt av oss som bara pungar ut att det är okej att ta 20-25K för ett grafikkort och 10K för ett i mellanklassen.

Ja för det är grafikkort som är den stora boven i användningen av våra naturresurser, och att de drar en 50-100W mer än tidigare. Jösses.

Universum är oändligt stort, där ute finns det oändligt med resurser för allt. Så varför inte snabba på det ofrånkomliga att komma ut dit så snart som möjligt? För det krävs det teknologiska framsteg.

Citat:

Utvecklingen inom teknologi, medicin, vetenskap kommer att gå oavsett vad vi är villiga att betala.

Det hade (relativt) tvärstoppat om ingen var villiga att betala ens en krona för det. Likväl kommer det gå snabbare om vi är villiga att betala mer (Ta t.ex. space race under 50-70-talet, så enormt mycket framsteg vi gjorde på kort tid då!)

Permalänk
Medlem

Betyder detta att halvledarbristen är över?

Visa signatur

Chassi: Corsair 4000D CPU: Intel i7 11700K RAM: 32Gb DDR4 Moderkort: ASUS Z590-F
Grafik: RTX 3070 Ti OS: W11 SSD: M.2 1TB snabb som tusan

Permalänk
Datavetare

Postade denna bild i en annan tråd, men den är egentligen ännu mer relevant här

Är inte jättemycket TSMC, Samsung eller Intel kan göra åt den utvecklingen då den är dikterad rätt mycket av fysikens lagar.

Vad man däremot kanske borde fundera mer på är att använda de transistorer som finns på bästa sätt. Det blir ännu mer kritiskt när man ser att det inte bara är priset som ökar, skillnaden i densitet kommer med stor sannolikhet gå ned framåt.

Kommande noder är inte "hel-noder" med runt dubbla densiteten mot förgående, TSMCs 3nm ska enligt dem själva bara ge ~33 % högre densitet till ett 25 % högre pris. Vi börjar tyvärr komma till punkten där inte ens pris per transistor längre minskar!

Inte jättemycket man man göra åt situationen på GPU-sidan. GPUer är stora för att man helt enkelt trycker in många beräkningsenheter och prestanda skalar rätt linjärt med antalet "CUDA/Stream-kärnor". GPUer har inget gammalt bagage som gör dem onödigt ineffektiva.

Däremot borde Intel/AMD ta sig en funderare på om det inte är dags att pensionera deras CPU-teknik med rötter från 1970-talet...

Jämför man AMD och Apple, som i nuläget båda använder TSMCs 5 nm för deras CPUer, så ser man att en Zen4 är ca 40 % större än Avalanche (CPU-kärnan i M2, den är i sin tur ~20 % större än Firestorm i M1 mest p.g.a. att L2$ ökade med 33 % och Apple har en gigantisk L2$).

Kollar man sedan prestanda ISO-frekvens är den runt 50 % högre i Avalanche jämfört med Zen4. Visst krävs det en viss transistorbudget för att designa för högre frekvens, men det är rätt få relativt sett. Högre frekvens handlar primärt om effektbudget.

Inte helt äpplen mot mot äpplen då Avalanche har 6 gånger större L1I$, 4 gånger större L1D$ och L2$ medan Zen4 har 4 gånger större L3$. Men finns faktiskt tekniska anledningar till varför man spenderat transistorbudget så pass olika på cache-delen, vilket gör jämförelsen fullt relevant ändå.

Så med 40 % mer kretsytan får man med x86_64 en design som presterar 67 % av ARM64 ISO-frekvens...

Apple är inte unik. Ställer man Zen3 baserad AMD EPYC mot t.ex. Ampere Computings "Ampere Altra" server CPU, båda tillverkade på TSMC 7 nm, tar den förra strax över 1000 mm² kisel för 64 CPU-kärnor medan den senare tar ca 570 mm² kisel för 80 CPU-kärnor. I/O-mässigt är de relativt snarlika med 128 PCIe4 linor och 8st DDR4 kanaler.

Räknat per vCPU (i praktiken per CPU-tråd, är så man betalar för CPU-kraft i dagens datacenter) presterar Ampere Altra något bättre än AMD (och även Intel) per vCPU (den med SPECInt som benchmark)!

Finns självklart affärsmässiga aspekter i detta, men tycker det är ett interessant tankeexperiment. Kanske dags att ge x86 pension...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Lyckligtvis kan tillverkare alltid höja sina priser för att täcka förluster på grund av: försämrad efterfrågan/jordbävningar/översvämningar/eldsvådor/pandemier/strejker/råvarubrister och så vidare. Så i inget led förutom konsumenten är det någon som egentligen kommer att lida av detta inledningsvis.

Permalänk
Medlem

Kanske kan detta få priserna att sjunka, man kan ju hoppas.

Jag måste nog nästan säga att jag gått över till "the dark side", consol-sida, mycket på grund av priserna.

Jag köpte en xbox series x. Funkar hur bra som helst. Jag spelar mest bilspel, simulatorer, lite mer arkadiga spel, som funkar rätt bra i soffan med handkontroller. Har ny trevlig tv med.

Jag hade behövt uppgradera min speldator. För de 4500kr som jag fick betala för min xbox series x (som renderar superfin grafik i 4k) får jag knappt ett grafikkort som är särskilt mycket bättre än mitt nuvarande gtx1070. För att kunna spela spel i samma grafiska kvalitet på min dator, som jag gör på min xbox series x hade jag nog behövt lägga 4ggr pengarna...

Jag är en "pc-gamer" i hjärta, hoppas att jag kan vara det "i plånboken" också i framtiden och att jag kan återvända, någon gång. Just nu kan jag inte motivera det ekonomiskt. Jag har en laptop som jag använder för jobb och allt annat, så speldatorn används bara för spel. Priset är helt enkelt för högt för att uppgradera den.

Permalänk
Medlem
Skrivet av JBerger:

1) Allt nytt är (relativt) dyrt initialt. Tror du vi hade haft svinbilliga 46" plattTVar idag om de inte hade släppt de första svindyra plattTVarna i början?

2) Var tusan kommer byggbranschen in i "programmera mer optimalt"..? Men visst, vi har idag extra mycket beräkningskraft som gör att man inte måste kunna ASM som rinnande vatten, eller C/C++, utan kan istället koda ett hyffsat snyggt och relativt optimerat spel (=hög fps) i t.ex. unity eller unreal engine, utan att behöva kunna alla ins-and-outs. Det har ju gett oss 1000000% fler spel per år att välja mellan, jämfört med back in the old days. Att ens dator drar några Watt mer är ett billigt pris att betala.

3) Du får zooma ut lite och inte bara titta på nvidia kort de senaste två åren. Ta plattTV exemplet ovan.

4) Utvecklingen stendog nånstans under första-andra XBOX (2001 och 2005) eran tycker jag. Innan det gick pc-spel-marknaden från Doom 1993, Quake 1 1996, Half-Life 1998, Unreal 1998, ett gäng call of duty/modern warefare spel som blev snyggare och snyggare, å så Crysis 2007. Men därefter hände inte mycket. Inte för inget som memen "But can it run crysis?" blev/är så populär, för det var det snyggaste (och mest tungdrivna, när allt var på max) spelet i många många många år.
Personligen skyller jag på Golden Eye på N64 som startskottet då konsolltillverkare såg att FPS (a.k.a. PC Spel) gick att göra till konsoller och de var populära, så alla PC spel förfulades och dummades ner så de gick att lira på konsoll med å hårdvaruindustrin kunde ligga på latsidan för det kom bara en ny konsoll var 5-8år eller nånting sånt.

1) Nytt är dyrt - det kan jag gå med på. Men en smart tv 50' år 2011 för 10 tusen kr och en smart tv 65' år 2023 för 17 tusen kr är inte riktigt imponerande.

2) Ja, här får du ett exempel från verkligheten min vän.
Ett småskaligt renoverings jobb skulle göras i ett sjukhus i en kommun. Dra om lite el ledningar, lite ventilation och byta undertaket. Total kostnaden ca 5m. Efter arbetet är genomfört, kommer en besiktningsman och konstaterar att det saknas 1 cm i tak höjden (avståndet mellan färdigt golv och undertaket) för att uppnå byggnormer. Utredningen startas - vem som gjorde felet.

Besiktningsman - Takläggarna har gjort fel och satt undertaket på fel höjd. Takläggarfirman ska bekosta ett nytt undertak och eventuella kostnader i samband med det. (Täckning, målning, deponi...)

Takläggarfirman - Vi satt undertaket dikt emot kabelstegar i undertaket. Vi byggde ur de förutsättningar som elektriker lämnade åt oss. I så fall är det elektrikernas firma som bör stå för felbyggs kostnader.

El firman - Vi satt nya kabelstegar dikt emot ventilations kanaler/rör. Vi byggde ur de förutsättningar som ventilations tekniker lämnade åt oss. I så fall är det ventilatios firma som bör stå för felbyggs kostnader.

Vent firma - Vi satte nya ventilationrör/kanaler i samma höjd som befintliga ventilations rör/kanaler sitter nu. Alltså dikt emot betong tak. Vill ni ändra på rör/kanal diameter/form/utförande får vi riva all befintlig ventilation (i dem renoverade utrymmen) och det ingick varken i arbets förfrågan som kommunen gick ut med eller offerten som vi lämnade till kommunen. Vi gjorde det jobbet som vi kom överens med beställaren (kommunen). Vill de ha extra jobb, får de pröjsa extra.

Besiktningsman - det måste rättas upp.

Kommunen - ok vi pröjsar så att det byggs om enligt alla konstens regler.

Så i stället för 5 miljoner fick skattebetalarna pröjsa...

55 miljoner.

Ja... För en extra cantimeter takhöjden.

3) Ja... Se platTV exempel övan.

4) Dummades ner - ja. Men det beror på lite annat. Folk/ungdomar som hade tid förut att djupdyka i ett spell 4-6 timmar om dan, har vuxit upp och har lite andra problem. Så de har knappt 2 timmar om dan. Då spelet ska gå enklare och fortare att spela. (Spelpsykologer vet hur kan man tvinga på endorfin utsöndring). Det är lite som evolution. För degradering (förenkling) är också en del av evolutionen.

Förfulades - nej.
Speltillverkarna vill alltid ha ett bättre grafik i sin spel. Det är ögongodis. Det säljer.

Permalänk
Medlem
Skrivet av Yoshman:

Postade denna bild i en annan tråd, men den är egentligen ännu mer relevant här
https://cdn.wccftech.com/wp-content/uploads/2022/11/TSMC-3nm-Wafer-Price-Costs-NVIDIA-Intel-AMD-Next-Gen-CPUs-and-GPUs.jpg
Är inte jättemycket TSMC, Samsung eller Intel kan göra åt den utvecklingen då den är dikterad rätt mycket av fysikens lagar.

Vad man däremot kanske borde fundera mer på är att använda de transistorer som finns på bästa sätt. Det blir ännu mer kritiskt när man ser att det inte bara är priset som ökar, skillnaden i densitet kommer med stor sannolikhet gå ned framåt.

Kommande noder är inte "hel-noder" med runt dubbla densiteten mot förgående, TSMCs 3nm ska enligt dem själva bara ge ~33 % högre densitet till ett 25 % högre pris. Vi börjar tyvärr komma till punkten där inte ens pris per transistor längre minskar!

Nu vet jag inte sammanhanget för den bilden, men jag antar att det är kostnaden per wafer från TSMC. Detta pris handlar delvis om att TSMC måste betala sina investeringar i nya fabriker. De har två år på sig för att betala en ny fabrik, och det är till stor del detta som driver kostnaderna. Om TSMC därför planerade med en ny nod vart tredje år istället för vartannat, hade de kunnat kapa den delen av priset med 33% (eller egentligen lite mindre eftersom de har kapitalkostnader för sin investering- dvs räntor - men nåt åt det hållet).

Citat:

Inte jättemycket man man göra åt situationen på GPU-sidan. GPUer är stora för att man helt enkelt trycker in många beräkningsenheter och prestanda skalar rätt linjärt med antalet "CUDA/Stream-kärnor". GPUer har inget gammalt bagage som gör dem onödigt ineffektiva.

Tycker nog att hela konceptet med immediate mode rendering behöver ses över med tanke på hur mycket minnesbandbredd det behöver, när dess fördelar mot TBDR är så begränsade, men det har kanske inte riktigt med ämnet här att göra.

Annars håller jag med om vad du skriver om CPUerna.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av JBerger:

Enda jag läste var "Äh bilar är inget bra, tycker vi kan stanna kvar med häst och droska ett tag till"; Snabbare hårdvara ftw!

Finns inget som hindrar oss från att programmera mera optimalt, SAMTIDIGT som vi också får snabbare hårdvara. Och har du inte råd med hårdvaran så är det fritt fram att inte köpa den/vänta 1-2-3år å först då köpa istället, samtidigt som andra som har råd kan driva på utvecklingen. Vi har stått stilla länge nog pga konsoller att det är najs nu när det äntligen börjar dra igång igen med hårdvaru race.

Arbetskostnader hindrar oss från att programmera mera optimalt, sålänge det är dyrare än att bara köpa snabbare hårdvara kommer det förbli så.

Permalänk
Datavetare
Skrivet av mpat:

Nu vet jag inte sammanhanget för den bilden, men jag antar att det är kostnaden per wafer från TSMC. Detta pris handlar delvis om att TSMC måste betala sina investeringar i nya fabriker. De har två år på sig för att betala en ny fabrik, och det är till stor del detta som driver kostnaderna. Om TSMC därför planerade med en ny nod vart tredje år istället för vartannat, hade de kunnat kapa den delen av priset med 33% (eller egentligen lite mindre eftersom de har kapitalkostnader för sin investering- dvs räntor - men nåt åt det hållet).

Tycker nog att hela konceptet med immediate mode rendering behöver ses över med tanke på hur mycket minnesbandbredd det behöver, när dess fördelar mot TBDR är så begränsade, men det har kanske inte riktigt med ämnet här att göra.

Annars håller jag med om vad du skriver om CPUerna.

Ah, borde förstås skrivit att bildel är wafer-cost även om artikeltexten nämnde detta

"Ett skäl till detta är att Apple gått med på att betala 20 procent mer för TSMC:s 3-nanometerskretsar än 5-nanometersdito, med prislapp om 20 000 USD per tillverkad kiselplatta."

Men vad skulle incitamentet för TSMC vara att dra ned på takten? Är det något historien visat är det vilken fördel det är att ha ledartröjan när det kommer till kiseltillverkning för den som äger kiselfabrikerna. Vad är sannolikheten att Samsung och Intel skulle slå av på takten om TSMC skulle få för sig att göra det?

Finns ju inget idag som hindrar kretstillverkarna att välja en äldre nod. Tittar vi på AMD vs Nvidia så har ju dessa företag vid flertalet tillfällen valt lite olika strategi, AMD har långt oftare varit väldigt tidigare med att gå till nya noder med sina GPUer medan Nvidia varit betydligt mer konservativa.

Givet prisutvecklingen lär vi få se mer spridning mellan noderna även för "high-end". Flerkretslösningar är allt annat än nytt, som det mesta inom IT användes den tekniken av bl.a. IBM redan på 70-talet (ok lite nytt, det mesta andra inom IT brukar IBM pysslat med redan på 60-talet).

Det nya nu är att prisstegringen vid mindre noder kommer göra multikretslösningar till ett krav in allt fler områden för att kunna hålla någon vettig ekonomi i designerna.

En av "vinnarna" i den här utvecklingen är produkter som är dyra av långt fler skäl än dess CPU/GPU/systemkrets. Tycker vi allt mer ser det hos t.ex. bärbara datorer. Apples bärbara må ha en hög prislapp i absoluta tal, men idag är dessa ofta billigare än motsvarande Windows-baserade bärbara.

Bygger man system likt MBP blir ju även saker som skärm, chassidesign etc en väsentligt del av kostnaden så man kan lättare "svälja" kostnaden dyrare systemkrets. På Windows-sidan, framförallt de billigare modellerna, slår ju en sådan kostnad igenom betydligt mer, relativt sett.

Telefoner har haft en galen prisutveckling, men vi ser ändå att de riktigt dyra toppmodellerna också lyfter in annan dyr teknik än bara systemkretsen, vilket är vettigt ut ett totalperspektiv. Har man inte nytta av detta finns enklare modeller.

Edit: konkurrens leder inte alltid till lägre priser. Kolla vad som hände t.ex. på CPU-sidan, vi har inte sett så här höga priser på konsumentmodeller sedan förra gången (Athlon/P3/P4) det var jämnt mellan Intel/AMD. De tio år som ledde upp till Skylake såg i stort sätt bara inflationsjustering av priset för toppmodellen som låg runt $300 (både Intel och AMD hade varit upp på $1000 för konsumentmodeller under Althon/P4 eran, nu är man i stort sett tillbaka där).

Ibland leder konkurrens till lägre priser, ibland till snabbare utveckling. Ibland mest till att man verkar fundera hur man "vinner" benchmarks (bara delvis sant, AMD/Intels toppmodeller senaste gen är ett rejält lyft för vissa arbetslaster)...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Appel går redan över till 3nm. Om inte AMD, Intel och Nvidia hänger på så kommer Pc datorn dö ut. Satsa eller ge upp tyvärr det enda som gäller när Apple är på som en igel för att ta igen prestanda mot de gamla drakarna.

Utvecklingen har aldrig varit så snabb som den är idag.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Yoshman:

Men vad skulle incitamentet för TSMC vara att dra ned på takten? Är det något historien visat är det vilken fördel det är att ha ledartröjan när det kommer till kiseltillverkning för den som äger kiselfabrikerna. Vad är sannolikheten att Samsung och Intel skulle slå av på takten om TSMC skulle få för sig att göra det?

Incitamentet är att kapa sina egna kostnader och därmed kunna kapa kostnaderna för sina kunder. När Moore's andra lag fortsätter gälla även efter att den första har tappat farten, måste man sprida de investeringarna över fler producerade chip.

Citat:

Finns ju inget idag som hindrar kretstillverkarna att välja en äldre nod. Tittar vi på AMD vs Nvidia så har ju dessa företag vid flertalet tillfällen valt lite olika strategi, AMD har långt oftare varit väldigt tidigare med att gå till nya noder med sina GPUer medan Nvidia varit betydligt mer konservativa.

Historiskt sett ja, men det finns egentligen bara ett exempel i modern tid: den måttligt lyckade Turing, som stannade på 16nm TSMC (fast de kallade det 12nm) när AMD hoppade till 7nm. Ampere låg väl en halvnod efter den också, men det handlade mer om att Nvidia ville prova någon annan än TSMC - det var inte en gammal process så sett. Skall du ha fler exempel får du gå hela vägen tillbaka till 2008 (Radeon 4870 55nm mot Geforce 260/280 65nm, och sedan 4770 som ett litet test på 40nm året efter). Nvidia var mer försiktiga förr, men det var länge sen.

Citat:

En av "vinnarna" i den här utvecklingen är produkter som är dyra av långt fler skäl än dess CPU/GPU/systemkrets. Tycker vi allt mer ser det hos t.ex. bärbara datorer. Apples bärbara må ha en hög prislapp i absoluta tal, men idag är dessa ofta billigare än motsvarande Windows-baserade bärbara.

Bygger man system likt MBP blir ju även saker som skärm, chassidesign etc en väsentligt del av kostnaden så man kan lättare "svälja" kostnaden dyrare systemkrets. På Windows-sidan, framförallt de billigare modellerna, slår ju en sådan kostnad igenom betydligt mer, relativt sett.

Det här anknyter till något jag stört mig på ett tag nu. Om man backar 10 år, kunde man köpa alldeles utmärkta Radeon 7800-serien med 4.8GHz minne och begränsad strömbudget (bara 130W på 7850) till en rimlig peng. Toppkorten fick 6GHz minne och högre strömbudget, men det finns en mellanklass där man inte släppte på alla hämningar utan försökte hålla kostnaden nere. Nvidia gjorde liknande kort. Idag finns det ett enda kort som kan sägas följa detta - 6600 vanilla. Alla andra kort har så snabbt minne som finns, och är så högt klockade som det egentligen går så att man måste ha massiva kyllösningar och strömförsörjning. Jag begriper att chippen är dyra, men kan man inte spara pengar där man kan?

Citat:

Edit: konkurrens leder inte alltid till lägre priser. Kolla vad som hände t.ex. på CPU-sidan, vi har inte sett så här höga priser på konsumentmodeller sedan förra gången (Athlon/P3/P4) det var jämnt mellan Intel/AMD. De tio år som ledde upp till Skylake såg i stort sätt bara inflationsjustering av priset för toppmodellen som låg runt $300 (både Intel och AMD hade varit upp på $1000 för konsumentmodeller under Althon/P4 eran, nu är man i stort sett tillbaka där).

Ibland leder konkurrens till lägre priser, ibland till snabbare utveckling. Ibland mest till att man verkar fundera hur man "vinner" benchmarks (bara delvis sant, AMD/Intels toppmodeller senaste gen är ett rejält lyft för vissa arbetslaster)...

Detta beror delvis på vad som är "konsumentmodeller". Intel höll ju hårt på att allt som inte var prosumer eller server var fyra kärnor max, och då kunde man ju hålla priserna nere för att chippen blev små. Intel gick från 296mm2 för Lynnfield till 122mm2 för Skylake. Undra fan på att man kan hålla priserna nere då.

Visa signatur

5900X | 6700XT