Fransk myndighet ska utreda Nvidia för konkurrensbrott

Permalänk
Medlem
Skrivet av Swedishchef_90:

Är ju extremt dyrt att utveckla gpuer och anställa folk. Utan möjlighet för proprietära lösningar så hade vi nog varit kvar i 1070 träsket prestanda mässigt.

Det var inte speciellt dyrt att göra Linux, och det drev inte mänskligheten varken framåt eller bakåt.

Vi får helt enkelt tycka olika men i detta fall så hade nvidia inte drivit utvecklingen i närheten med samma passion och målbild. Nu öser dem pengar på det, pengar som aldrig hade funnits i bolaget

Så du menar att allt vad Linux inneburit inte har drivit utvecklingen frammåt, men att varenda företag sätter "AI" på alla sina produkter för att det ska sälja har det?

Jag säger inte att AI inte har potential, men kom tillbaks när det faktiskt har löst riktiga problem, typ förebyggt Cancer, utrotat AIDS, sådanna saker. Att hjälpa redan rika företag att tjäna ännu mer pengar är ingen bedrift.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Skrivet av Ozzed:

Så du menar att allt vad Linux inneburit inte har drivit utvecklingen frammåt, men att varenda företag sätter "AI" på alla sina produkter för att det ska sälja har det?

Jag säger inte att AI inte har potential, men kom tillbaks när det faktiskt har löst riktiga problem, typ förebyggt Cancer, utrotat AIDS, sådanna saker. Att hjälpa redan rika företag att tjäna ännu mer pengar är ingen bedrift.

Linux har inte gjort något världsomväldigande för mänskligheten, nej.

Den har underlättat för server marknad och sponsras rejält av företag
https://www.linuxfoundation.org/about/members

Alltså pengar pumpas in i massor för att dem skall tjäna pengar

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Ozzed:

Proprietära tekniker och därmed inlåsning, som sagt. Gsync, CUDA, DLSS och annat som de håller för sig själva. Till och med Intel har ju valt att köra öppet på grafiksidan och det säger ju inte lite om hur illa det är med Nvidia när till och med Intel kör rent spel.

Nvidia - The way you're meant to be played.

Och du verkar väldigt säker på att Intel inte hade gjort likadant om de hade varit i Nvidias position? Klart de hade gjort!

Skrivet av Swedishchef_90:

Är ju extremt dyrt att utveckla gpuer och anställa folk. Utan möjlighet för proprietära lösningar så hade vi nog varit kvar i 1070 träsket prestanda mässigt.

Det var inte speciellt dyrt att göra Linux, och det drev inte mänskligheten varken framåt eller bakåt.

Vi får helt enkelt tycka olika men i detta fall så hade nvidia inte drivit utvecklingen i närheten med samma passion och målbild. Nu öser dem pengar på det, pengar som aldrig hade funnits i bolaget

Dessutom leder det till konkurrerande öppna standardarder och det gagnar oss slutkonsumenter. Jag ser inga som helst problem med att Nvidia kör sina egna lösningar.

Permalänk
Avstängd

Jag skulle vilja se det så här.

Om NVIDIA minskar sin marknadsandel till 60% medan AMD når 40% så skulle det sannolikt leda till ökad konkurrens på grafikkortsmarknaden.

Det innebär lägre priser för konsumenter, ökad innovationstakt från båda företagen och förbättrad produktkvalitet.

Konsumenterna skulle dra nytta av valmöjligheter och bättre service, medan hela branschen skulle stimuleras genom ökad konkurrens.

Men det lär väl aldrig hända…

Permalänk
Medlem

" if You can't beat them join them " ordspråket gäller nog alla gigantiska företag så fort nån inkräktar på ens revir och kan möjliggöra ett hot så köper man upp dom detta har vi alla lästa om flera ggr om här på Swec.
Googla på t.ex "nvidia acquires" så hade Nvidia levt ännu eller varit så stora om dom inte köpta upp dessa ? Knappast

Sedan var och hur man drar gränsen för vad som är monopol och förhindra konkurrens....

Permalänk
Medlem
Skrivet av Swedishchef_90:

Absolut men ingen av dem DRIVER aggressivt utvecklingen framåt?

Nämn en öppen standard som genererar miljarder?

Ethernet? TCP/IP? HTTP? TLS? SMTP? HTML? JSON? XML? För att inte nämna tusentals RFC:er eller ISO-standarder som tillåter diverse industrier att tjäna åtskilliga miljarder.

Monopol har aldrig lätt till bra produkter eller aggressiv utveckling. Bara se hur IE-monopolet höll på att stagnera Internet på 90-talet eller hur dagens sökmonopol för Google har lett till att webbsök samt hemsidor blivit komplett skit.

Det är när du har monopol som du kan sluta innovera för alla måste ända köpa dina produkter. Det är också lite märkligt resonemang att hävda att Nvidia skulle ge upp sin aggressiva utveckling inom GPGPU om de fick riktig konkurrens.

Visa signatur

|Ryzen 5800x3d|RX 7900XTX Hellhound|Asus Prime X370 Pro|32GiB Corsair 3200MHz CL16 Vengeance|Corsair HX1000i|Fractal Define R5|LG 45GR95QE|Corsair K100|Razer DeathAdder V3 Pro|Ubuntu 24.04|

Permalänk
Medlem

Att de utnyttjar sin monopol liknande position till att drive upp priserna är väll ett större problem

Visa signatur

Registrerad 2001-12-24 15:10
Jul med Kalle Anka och Sweclockers

Permalänk
Skrivet av F.Ultra:

Ethernet? TCP/IP? HTTP? TLS? SMTP? HTML? JSON? XML? För att inte nämna tusentals RFC:er eller ISO-standarder som tillåter diverse industrier att tjäna åtskilliga miljarder.

Monopol har aldrig lätt till bra produkter eller aggressiv utveckling. Bara se hur IE-monopolet höll på att stagnera Internet på 90-talet eller hur dagens sökmonopol för Google har lett till att webbsök samt hemsidor blivit komplett skit.

Det är när du har monopol som du kan sluta innovera för alla måste ända köpa dina produkter. Det är också lite märkligt resonemang att hävda att Nvidia skulle ge upp sin aggressiva utveckling inom GPGPU om de fick riktig konkurrens.

Många av dem protokollen är fram forskade med statliga skatte pengar. Så blir ju lite skevt att jämföra.

Dessutom kräver ingen av dem kraftig hårdvara att använda

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Fransmännen vill också sin beskärda del av "AI-pengarna"...?! 🤷🏼‍♂️ 😅

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem
Skrivet av Flamso:

Det handlar väl mer om hur stora de är på AI-kretsar och hur centralt CUDA, som är proprietärt, är för programvara i berökningssammanhang. Mer än att Nvidia skulle vara favoriten här på forumet?

Jag tänker mest på den instinktiva försvarsmekanismen som går igång hos vissa bara för att de har köpt ett visst märke. Ett mänskligt men fortfarande konstigt beteende.

Skrivet av Swedishchef_90:

Absolut men ingen av dem DRIVER aggressivt utvecklingen framåt?

Nämn en öppen standard som genererar miljarder?

VESA, DisplayPort, Vulkan, OpenGL... Ska jag fortsätta? Utan dessa skulle GPU-världen vara bra mycket sämre. Man ska inte underskatta värdet av kompabilitet mellan tillverkare, även om det är svårt att dra direkta linjer till inkomst av försäljningen det skapar.

Permalänk
Medlem

Denna utredning, om den kommer fram till något alls, hjälper ju som bäst företag som vill slå sig in på AI-marknaden. Nvidia har blivit marknadslednande av en anledning. Tycker företag ska kunna slåss sinsemellan utan att myndigheter lägger sig i.

Tycker däremot att skulle kolla på eventuell priskartellbildning på grafikssidan mellan AMD/Nvidia.

Permalänk
Datavetare
Skrivet av AquaDental:

Jag skulle vilja se det så här.

Om NVIDIA minskar sin marknadsandel till 60% medan AMD når 40% så skulle det sannolikt leda till ökad konkurrens på grafikkortsmarknaden.

Det innebär lägre priser för konsumenter, ökad innovationstakt från båda företagen och förbättrad produktkvalitet.

Konsumenterna skulle dra nytta av valmöjligheter och bättre service, medan hela branschen skulle stimuleras genom ökad konkurrens.

Men det lär väl aldrig hända…

Tycker ändå det finns en hel del som pekar på att just duopol är på många sätt den absolut sämsta varianten av konkurrens.

Ett de-facto monopol kommer bli utsatt för granskning, även om det ibland tar lite tid. Finns gott om exempel på det.

Så fort det är mer än två spelare ändras dynamiken på ett uppenbart sätt: att göra något som är dåligt för den andra parten är inte längre nödvändigtvis fördelaktigt för dig själv, det kan mycket väl gynna de andra mer. Så här får man "riktig" konkurrens.

Även ett duopol med dålig balans är många gånger bättre än ett där båda spelarna är jämbördiga. I det förra gör en allt för att öka sin andel, i det andra finns det ofta så pass mycket att riskera att båda är nöjda med status quo.

För att ta ett aktuellt exempel som nog inte riktigt gått som folk hoppas: CPU-marknaden mellan AMD och Intel. Rätt snabbt efter att det blev "konkurrens" så ökade priset kraftigt på CPU-modeller. Från att under många år legat på ~$300 för toppmodellen och $200 för "mainstream" är det rätt mycket det dubbla idag.

Och har vi egentligen fått något från denna konkurrens? Länge såg det ut som det, men när det började komma in fler spelar undrar jag om inte även det var en illusion. När man är två behöver man inte vara bra, räcker att vara mindre dålig än sin konkurrent.

För 10 år sedan var Intels CPUer ohotade sett till prestanda per kärna. I slutet av detta år kan det mycket väl vara så att AMD och Intel får tävla om 4:e platsen var det gäller prestanda för bärbara, efter Apple, Arm (de kommer vara 2a om vad de säger om Cortex A925 stämmer) och Qualcomm (i "bästa" fall för Intels/AMDs del är de ihop med QCOM i en fight om 3:e plats).

Samma gäller servers. När första Epyc släpptes var det gnäll bl.a. här om hur dyra Xeons var. Dyraste Epyc låg på ~$4k har jag för mig medan dyraste Xeon gick på ~$8k. Idag ser medianpriset på AMDs/Intels server-CPUer ut att ligga över $10k från båda spelarna.

Sen kan man inte bara skylla ökning i pris på detta. Kostnaden för kretstillverkning skenar, så allt bleeding-edge har blivit rejält mycket dyrare. Men att tro att ett duopol ger speciellt mycket för konsumenterna är kanske att hoppas på lite för mycket.

Det skrivet: även om Nvidia nått sin nuvarande position genom att helt enkelt varit tekniskt överlägsna sina konkurrenter under mer än ett decennium så är de idag ett de-facto monopol inom en rad områden. De SKA därför granskas rejält, för de är i en position där de i praktiken helt kan diktera reglerna annars.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av F.Ultra:

Ethernet? TCP/IP? HTTP? TLS? SMTP? HTML? JSON? XML? För att inte nämna tusentals RFC:er eller ISO-standarder som tillåter diverse industrier att tjäna åtskilliga miljarder.

Monopol har aldrig lätt till bra produkter eller aggressiv utveckling. Bara se hur IE-monopolet höll på att stagnera Internet på 90-talet eller hur dagens sökmonopol för Google har lett till att webbsök samt hemsidor blivit komplett skit.

Det är när du har monopol som du kan sluta innovera för alla måste ända köpa dina produkter. Det är också lite märkligt resonemang att hävda att Nvidia skulle ge upp sin aggressiva utveckling inom GPGPU om de fick riktig konkurrens.

Ethernet och TCP/IP är lysande exempel på vad vi får hoppas kommer hända även här. D.v.s. i slutändan kommer vi nästan uteslutande använda oss av öppna standarder som är designade för att fungera så bra som möjligt för alla.

Ethernet och TCP/IP slog ut proprietära tekniker som token ring och SPX/IPX för att de helt enkelt var bättre på många sätt.

Så det vi inte vill se är att man går in och gör något så att Nvidia blir tvingande att låta alla använda CUDA. CUDA är specifikt designat för fungera optimalt på Nvidias HW. SyCL, och även OpenCL 3.x, är designat för att kunna implementeras på ett nära optimalt sätt på en bred uppsättning HW.

Nutida exempel är AMDs Mantle. Det hade väldigt små möjligheter att bli populärt utanför AMDs GPUer, för det fanns flera saker som var specifikt designade för GCN. Skillnaden mellan Vulkan och Mantle handlar nästan uteslutande om att sådant som tar bort sådana egenskaper. Att göra Mantle->Vulkan resan med CUDA är långt mycket mer jobb än att bara kör på med SyCL.

I fallet CUDA är uppförsbacken ovanligt stor för en standard att ta över. Helt enkelt därför Nvidia hunnit bygga så enormt mycket användbart runtomkring som använder CUDA som bas.

Men finns massor med exempel på att det är möjligt. Backa 5 år, att köra PyTorch/Tensorflow på något annat än CPU eller CUDA var rätt mycket ett "no-go".

Idag fungerar det hur bra som helst att även köra med Metal Compute och OneAPI. Finns en hel del kodexempel som inte fungerar out-of-the-box, det för att de hårdkodat cuda som GPU-device. Fixa det så brukar det rullar på även med Metal (mps) eller OneAPI (mer än bara GPGPU, men också det, xpu).

Nvidias bibliotek för CUDA är dock rätt mycket större än så.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Swedishchef_90:

Linux har inte gjort något världsomväldigande för mänskligheten, nej.

Så de flesta servrar med Nvidias fantastiska AI kör "Inte Linux"? Utvecklingen hade inte bromsats eller gått trögare om "Operativsystem" var en större utgiftspost+

Skrivet av Dinkefing:

Och du verkar väldigt säker på att Intel inte hade gjort likadant om de hade varit i Nvidias position? Klart de hade gjort!

Dessutom leder det till konkurrerande öppna standardarder och det gagnar oss slutkonsumenter. Jag ser inga som helst problem med att Nvidia kör sina egna lösningar.

Intel har gjort typ samma sak. "Dell - The best friend money can buy" och allt det där. Men ja oavsett vem som gör det så är det lika fel, och lika rätt att de utreds och straffas.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Så de flesta servrar med Nvidias fantastiska AI kör "Inte Linux"? Utvecklingen hade inte bromsats eller gått trögare om "Operativsystem" var en större utgiftspost+

Intel har gjort typ samma sak. "Dell - The best friend money can buy" och allt det där. Men ja oavsett vem som gör det så är det lika fel, och lika rätt att de utreds och straffas.

Du menar att du har tillgång till det brottsliga dokumenten? Jag tycker dina svar håller väldigt låg standard.

Permalänk
Skrivet av dlq84:

Jag tänker mest på den instinktiva försvarsmekanismen som går igång hos vissa bara för att de har köpt ett visst märke. Ett mänskligt men fortfarande konstigt beteende.

VESA, DisplayPort, Vulkan, OpenGL... Ska jag fortsätta? Utan dessa skulle GPU-världen vara bra mycket sämre. Man ska inte underskatta värdet av kompabilitet mellan tillverkare, även om det är svårt att dra direkta linjer till inkomst av försäljningen det skapar.

Dem flesta där är ju organisationer som stöttas av flera tillverkare. Ingen av dem är saker som skapats från ett företag och givits ut gratis.

Vulkan är ju från amd till khronos. Vesa är ju 9 olika bolag som slog ihop standarden. Samma med DP.

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Skrivet av Ozzed:

Så de flesta servrar med Nvidias fantastiska AI kör "Inte Linux"? Utvecklingen hade inte bromsats eller gått trögare om "Operativsystem" var en större utgiftspost+

Skulle Linux inte finnas så skulle nog de drivas vidare på ett annat OS .

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Frankrike, en kommuniststat med usla statsfinnanser De behöver ju få in pengar nånstans. Lägg inte så stor vikt vid detta grabbar.

Snabbspola till 30-talet när Nvidia har ett helt annat inflytande och "alla" känner till namnet som Apple, då snackar vi EU-böter etc. Men där är vi inte än.

Permalänk
Medlem
Skrivet av Dinkefing:

Du menar att du har tillgång till det brottsliga dokumenten? Jag tycker dina svar håller väldigt låg standard.

Om det är låg standard att anta att om en myndighet utreder ett företag så är det på goda grunder så visst.

Skrivet av Swedishchef_90:

Skulle Linux inte finnas så skulle nog de drivas vidare på ett annat OS .

Om det "andra" operativsystemet byggde på samma principer, ja. Det är inte namnet Linux som är viktigt utan vilken roll konceptet har spelat.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Yoshman:

Ethernet och TCP/IP är lysande exempel på vad vi får hoppas kommer hända även här. D.v.s. i slutändan kommer vi nästan uteslutande använda oss av öppna standarder som är designade för att fungera så bra som möjligt för alla.

Ethernet och TCP/IP slog ut proprietära tekniker som token ring och SPX/IPX för att de helt enkelt var bättre på många sätt.

Så det vi inte vill se är att man går in och gör något så att Nvidia blir tvingande att låta alla använda CUDA. CUDA är specifikt designat för fungera optimalt på Nvidias HW. SyCL, och även OpenCL 3.x, är designat för att kunna implementeras på ett nära optimalt sätt på en bred uppsättning HW.

Nutida exempel är AMDs Mantle. Det hade väldigt små möjligheter att bli populärt utanför AMDs GPUer, för det fanns flera saker som var specifikt designade för GCN. Skillnaden mellan Vulkan och Mantle handlar nästan uteslutande om att sådant som tar bort sådana egenskaper. Att göra Mantle->Vulkan resan med CUDA är långt mycket mer jobb än att bara kör på med SyCL.

I fallet CUDA är uppförsbacken ovanligt stor för en standard att ta över. Helt enkelt därför Nvidia hunnit bygga så enormt mycket användbart runtomkring som använder CUDA som bas.

Men finns massor med exempel på att det är möjligt. Backa 5 år, att köra PyTorch/Tensorflow på något annat än CPU eller CUDA var rätt mycket ett "no-go".

Idag fungerar det hur bra som helst att även köra med Metal Compute och OneAPI. Finns en hel del kodexempel som inte fungerar out-of-the-box, det för att de hårdkodat cuda som GPU-device. Fixa det så brukar det rullar på även med Metal (mps) eller OneAPI (mer än bara GPGPU, men också det, xpu).

Nvidias bibliotek för CUDA är dock rätt mycket större än så.

Att få alla att köra SyCL hade varit den föredragna lösningen ja (kör själv inte GPGPU så utgår ifrån att det du skriver om SyCL vs CUDA är 100% korrekt) men frågan är om vi kommer att komma dit. Nvidia kan pga sin ställning helt blockera SyCL genom att vägra implementera det och alla applikationer kommer då att fortsätta att enbart ha stöd för CUDA (med några få undantag, men de är outliers) precis på samma sätt som många hemsidor byggdes för att enbart stödja IE4 en gång i tiden. Vilket får till följdeffekt att utvecklingen av SyCL kommer att stagnera tills det är så pass långt efter CUDA att Khronos ger upp projektet.

Blir ju också lite svårt att tvinga Nvidia att implementera SyCL för även om vi rent tekniskt kan göra det då monopolister hanteras under andra regler och skyldigheter så skulle de ju bara kunna göra en extremt dålig implementation vilket skulle göra att alla applikationer fortfarande skulle köra vida med enbart CUDA för det är det enda som är värt att lägga krut på.

Lite av det här kunde vi ju se iom ZLUDA projektet (vilket för de som inte minns var ett sätt att köra CUDA via ROCm precis som DXVK kör DirectX via Vulkan) vilket i de applikationer som trotts allt hade stöd för ROCm gav mycket bättre prestanda via ZLUDA, dvs applikationerna hade lagt all krut på att optimera CUDA-delen och lagt in ROCm så att det fungerade men inte mycket mer.

Risken är ju enorm att vi kommer att få en situation där Nvidia kommer att få total monopol inom GPGPU och då på både API-sidan och på HW-sidan, och när det väl inträffat så kommer Nvidia inte längre att ha något som helst incitament för att driva utvecklingen framåt. Dvs lycka till med att försöka konkurrera med Google som sökmotor och se vad Google har ställt till det för webben med SEO optimerade sidor som enbart gynnar content farms.

Visa signatur

|Ryzen 5800x3d|RX 7900XTX Hellhound|Asus Prime X370 Pro|32GiB Corsair 3200MHz CL16 Vengeance|Corsair HX1000i|Fractal Define R5|LG 45GR95QE|Corsair K100|Razer DeathAdder V3 Pro|Ubuntu 24.04|

Permalänk
Medlem

Håller inte Tesla på med någon egenutvecklad AI kärna som ska vara bättre än Nvidias?

Visa signatur

"Om man arbetar tillräckligt länge med att förbättra ett föremål går det sönder. "

Hjälp oss göra världen lite snällare! www.upphittat.nu

Permalänk
Datavetare
Skrivet av F.Ultra:

Att få alla att köra SyCL hade varit den föredragna lösningen ja (kör själv inte GPGPU så utgår ifrån att det du skriver om SyCL vs CUDA är 100% korrekt) men frågan är om vi kommer att komma dit. Nvidia kan pga sin ställning helt blockera SyCL genom att vägra implementera det och alla applikationer kommer då att fortsätta att enbart ha stöd för CUDA (med några få undantag, men de är outliers) precis på samma sätt som många hemsidor byggdes för att enbart stödja IE4 en gång i tiden. Vilket får till följdeffekt att utvecklingen av SyCL kommer att stagnera tills det är så pass långt efter CUDA att Khronos ger upp projektet.

Blir ju också lite svårt att tvinga Nvidia att implementera SyCL för även om vi rent tekniskt kan göra det då monopolister hanteras under andra regler och skyldigheter så skulle de ju bara kunna göra en extremt dålig implementation vilket skulle göra att alla applikationer fortfarande skulle köra vida med enbart CUDA för det är det enda som är värt att lägga krut på.

Lite av det här kunde vi ju se iom ZLUDA projektet (vilket för de som inte minns var ett sätt att köra CUDA via ROCm precis som DXVK kör DirectX via Vulkan) vilket i de applikationer som trotts allt hade stöd för ROCm gav mycket bättre prestanda via ZLUDA, dvs applikationerna hade lagt all krut på att optimera CUDA-delen och lagt in ROCm så att det fungerade men inte mycket mer.

Risken är ju enorm att vi kommer att få en situation där Nvidia kommer att få total monopol inom GPGPU och då på både API-sidan och på HW-sidan, och när det väl inträffat så kommer Nvidia inte längre att ha något som helst incitament för att driva utvecklingen framåt. Dvs lycka till med att försöka konkurrera med Google som sökmotor och se vad Google har ställt till det för webben med SEO optimerade sidor som enbart gynnar content farms.

Nvidia lär inte bry sig om SyCL så länge som CUDA är de-facto standard.

Men är man på "andra sidan" och bygger applikationer fattade Intel att de är flugviktaren medan Nvidia är tungviktaren. För att accelerera användning av OneAPI behövde man säkerställa att det även fungerar på Nvidias GPUer.

Så Intel har implementerat SyCL-stöd för Nvidias GPUer. Eller för att vara helt korrekt, man har betalat ett företag vid namn CodePlay för att fixa detta stöd.

Det jobbas även på stöd för AMDs GPUer då de också vägrat SyCL stöd, det är i beta just nu.

En av fördelarna med SyCL är att minneshantering hanteras automatiskt compile-time (något som blev möjligt från hur SyCL använder C++17/20 på ett effektivt sätt) medan det måste hanteras manuellt i CUDA (och HIP).

Exempel på GPGPU-världens "hello world", addera två vektorer och lägg resultatet i en tredje vektor.

Klicka för mer information

CUDA

#include <iostream> #include <vector> __global__ void vector_add(const int* A, const int* B, int* C, int size) { int i = blockDim.x * blockIdx.x + threadIdx.x; if (i < size) { C[i] = A[i] + B[i]; } } int main() { const int size = 1000; std::vector<int> A(size, 1); std::vector<int> B(size, 2); std::vector<int> C(size, 0); int* d_A; int* d_B; int* d_C; cudaMalloc(&d_A, size * sizeof(int)); cudaMalloc(&d_B, size * sizeof(int)); cudaMalloc(&d_C, size * sizeof(int)); cudaMemcpy(d_A, A.data(), size * sizeof(int), cudaMemcpyHostToDevice); cudaMemcpy(d_B, B.data(), size * sizeof(int), cudaMemcpyHostToDevice); int threadsPerBlock = 256; int blocksPerGrid = (size + threadsPerBlock - 1) / threadsPerBlock; vector_add<<<blocksPerGrid, threadsPerBlock>>>(d_A, d_B, d_C, size); cudaMemcpy(C.data(), d_C, size * sizeof(int), cudaMemcpyDeviceToHost); cudaFree(d_A); cudaFree(d_B); cudaFree(d_C); // Verifying the result bool correct = true; for (int i = 0; i < size; i++) { if (C[i] != 3) { correct = false; break; } } if (correct) { std::cout << "Vector addition succeeded." << std::endl; } else { std::cout << "Vector addition failed." << std::endl; } return 0; }

Visa mer
Klicka för mer information

SyCL, notera avsaknad av memcpy till/från GPU. Det finns även här men läggs in automatiskt om det behövs

#include <CL/sycl.hpp> #include <iostream> #include <vector> using namespace sycl; int main() { const int size = 1000; std::vector<int> A(size, 1); std::vector<int> B(size, 2); std::vector<int> C(size, 0); queue q; { buffer<int, 1> bufferA(A.data(), range<1>(size)); buffer<int, 1> bufferB(B.data(), range<1>(size)); buffer<int, 1> bufferC(C.data(), range<1>(size)); q.submit([&](handler& h) { auto accA = bufferA.get_access<access::mode::read>(h); auto accB = bufferB.get_access<access::mode::read>(h); auto accC = bufferC.get_access<access::mode::write>(h); h.parallel_for(range<1>(size), [=](id<1> i) { accC[i] = accA[i] + accB[i]; }); }); } // Verifying the result bool correct = true; for (int i = 0; i < size; i++) { if (C[i] != 3) { correct = false; break; } } if (correct) { std::cout << "Vector addition succeeded." << std::endl; } else { std::cout << "Vector addition failed." << std::endl; } return 0; }

Visa mer
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Saodie:

Återigen. Hur kan du veta att det "finns ingenting uppenbart för de att hacka på"? För att du inte hittade något när du körde en google sökning?

Därför att såna här utredningar ofta undersöker problem baserat på inkomna klagomål eller tips. Enklast är väl att du gör en snabb översikt av tidigare antitrust-mål mot techbolag i EU. Typ Microsoft, Intel, Meta etc.

Permalänk
Medlem
Skrivet av F.Ultra:

Risken är ju enorm att vi kommer att få en situation där Nvidia kommer att få total monopol inom GPGPU och då på både API-sidan och på HW-sidan, och när det väl inträffat så kommer Nvidia inte längre att ha något som helst incitament för att driva utvecklingen framåt. Dvs lycka till med att försöka konkurrera med Google som sökmotor och se vad Google har ställt till det för webben med SEO optimerade sidor som enbart gynnar content farms.

Historien lär oss att företag som slutar utveckla nytt utan bara vilar på sina lagrar, så småningom blir omsprungna rejält av nya företag med nya produkter.

"If you don't cannibalize yourself, someone else will."
-- Steve Jobs

Permalänk
Medlem
Skrivet av Archibald:

Därför att såna här utredningar ofta undersöker problem baserat på inkomna klagomål eller tips. Enklast är väl att du gör en snabb översikt av tidigare antitrust-mål mot techbolag i EU. Typ Microsoft, Intel, Meta etc.

Ja men dåså! Då vet vi med 100% säkerhet att det absolut inte kan finnas nått befog för den här utredningen. Done deal! Meddelar du Frankrike eller ska jag?

Visa signatur

Intel Core i7 14700k (Noctua NH-D15) | MSI Z790 Gaming Plus | Corsair Vengeance 32GB DDR5 5600Mhz | MSI GeForce RTX 4090 Gaming X Trio | Asus ROG Strix Aura 850W | Samsung 990 Pro M2 4TB |

Permalänk
Medlem
Skrivet av Saodie:

Ja men dåså! Då vet vi med 100% säkerhet att det absolut inte kan finnas nått befog för den här utredningen. Done deal! Meddelar du Frankrike eller ska jag?

Sluta lägg ord i andras munnar. Det är ohövligt och dålig argumentation.

Permalänk
Medlem
Skrivet av Archibald:

Sluta lägg ord i andras munnar. Det är ohövligt och dålig argumentation.

Det här är dina ord:

"Och man kommer inte att hitta någonting konkret"

"Men finns ingenting uppenbart för de att hacka på"

Återigen, hur kan du veta det? Du har ingen aning. På tal om dåliga argument.. "det brukar inte leda till något" väger noll och ingenting. Hade du skrivit att du INTE TROR att man kommer hitta något konkret hade det varit en sak, men när du försöker låta som en hotshot med insider information så måste man väl få ifrågasätta?

Visa signatur

Intel Core i7 14700k (Noctua NH-D15) | MSI Z790 Gaming Plus | Corsair Vengeance 32GB DDR5 5600Mhz | MSI GeForce RTX 4090 Gaming X Trio | Asus ROG Strix Aura 850W | Samsung 990 Pro M2 4TB |

Permalänk
Medlem
Skrivet av Saodie:

Det här är dina ord:

"Och man kommer inte att hitta någonting konkret"

"Men finns ingenting uppenbart för de att hacka på"

Återigen, hur kan du veta det? Du har ingen aning. På tal om dåliga argument.. "det brukar inte leda till något" väger noll och ingenting. Hade du skrivit att du INTE TROR att man kommer hitta något konkret hade det varit en sak, men när du försöker låta som en hotshot med insider information så måste man väl få ifrågasätta?

"Men finns ingenting uppenbart för de att hacka på"

Hade det varit uppenbart hade du lagt fram caset vid det här laget, vilket du inte har. Jag har kollat gamla antiteust-åtal och det man hackat på är i princip alltid känt av allmänheten. Nu är det din tur att lägga fram lite konkreta argument Mr. Åklagare. Ge mig några case där en utredning hittat oegentligheter som allmänheten inte haft kännedom om och som sedan ledd till fällande dom. Väntar med popcorn.

Permalänk
Skrivet av Ozzed:

Om det är låg standard att anta att om en myndighet utreder ett företag så är det på goda grunder så visst.

Om det "andra" operativsystemet byggde på samma principer, ja. Det är inte namnet Linux som är viktigt utan vilken roll konceptet har spelat.

Finns ju det genom usla Windows server att använda 😉

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Archibald:

"Men finns ingenting uppenbart för de att hacka på"

Hade det varit uppenbart hade du lagt fram caset vid det här laget, vilket du inte har. Jag har kollat gamla antiteust-åtal och det man hackat på är i princip alltid känt av allmänheten. Nu är det din tur att lägga fram lite konkreta argument Mr. Åklagare. Ge mig några case där en utredning hittat oegentligheter som allmänheten inte haft kännedom om och som sedan ledd till fällande dom. Väntar med popcorn.

Totalt meningslöst att argumentera med dig märker jag så jag kommer inte slösa mer energi på dig.

Jag vet inte vad utredningen kommer visa, jag har aldrig påstått att den kommer leda till något. Kan mycket väl vara så att det blir noll och inget. MEN, du säger ju med 100% säkerhet att den inte kommer leda någonvart så det är ju du som måste bevisa det förstår du väl?

Visa signatur

Intel Core i7 14700k (Noctua NH-D15) | MSI Z790 Gaming Plus | Corsair Vengeance 32GB DDR5 5600Mhz | MSI GeForce RTX 4090 Gaming X Trio | Asus ROG Strix Aura 850W | Samsung 990 Pro M2 4TB |