Geforce Fermi på bild

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk
Det var tydligen inte kortet på bilden som körde testet, utan det var det här.

Jag får längden till 28cm, verkar som om Datanusse låg rätt nära sanningen ändå.

Är din gissning eller har du något som helst bevis på det?

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Citat:

Ursprungligen inskrivet av Orici
Är din gissning eller har du något som helst bevis på det?

Missade du att det var ett ATI-kort med Nvidia-logga på bilden?

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mortifer666
Missade du att det var ett ATI-kort med Nvidia-logga på bilden?

Nej

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Orici
Är din gissning eller har du något som helst bevis på det?

Är du totalt humorbefriad?

Sen angående länken du postade, så visst väldigt intressant att FERMI hanterar CUDA sjukt mycket snabbare än GTX 200 men sen är ocskå arkitekturen av Fermi uppbyggd på att just hantera CUDA bättre så för mig säger det jack shit.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Orici
http://www.vizworld.com/2009/11/nvidias-fermi-sc09/

DP gör i princip inget för spel fyi, om du är intresserad av folding så var det ett vettigt inlägg.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Är du totalt humorbefriad?

Sen angående länken du postade, så visst väldigt intressant att FERMI hanterar CUDA sjukt mycket snabbare än GTX 200 men sen är helt arkitekturen av Fermi uppbyggd på att just hantera CUDA bättre så för mig säger det jack shit.

Nej, det är jag inte.

Jag ser bara inte det roliga i det, jag tycker snarare att det ser ut som ett sätt att provocera folk.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Hjälpsam

Tråkigt om en del blir provocerade, det är menat som ett skämt.
Så förfärligt elakt är det väl inte.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Orici
Nej, det är jag inte.

Jag ser bara inte det roliga i det, jag tycker snarare att det ser ut som ett sätt att provocera folk.

Nej om man tar det personligt så tycker man troligtvis inte att det är roligt.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Ärligt talat Nusse. Vi har haft otaliga diskussioner gällande Nvidia och ATi och du har heligt påstått många gånger att du verkligen inte föredrar det ena företaget före det andra.

Det jag inte förstår är hur det kommer sig att du så många gånger för eldiga diskussioner i försvar för Nvidia.

Det här är min första riktiga "eldiga" diskussion på många många månader. Men ja, jag brukar hamna oftast i nVIDIA's försvar men det har aldrig varit pågrund av märke. Jag motsätter mig bara när något jag inte håller med om eller har en annan åsikt.

Men mina åsikter och övertygelser bygger inte på någon lydighet till ett märke eller färg. Även om många få sig att tro det.

Citat:

Jo men varför visar man upp ett grafikkort och påstår att det är deras nya produkt när det inte är det. Man ljuger för en hel presskår och gör sig till åtlöje. I mina ögon så luktar det ren desperation.

Jag förstår fortfarande inte varför man bli förbannad på detta och den känns nästan löjligt att bli det. Grafikkortet var ett mocap, ett icke fungerande exemplar. Man visade en liten demonstration av prestandan i en applikation och det var allt. Utseendet på kortet var korrekt nu när det har dykt upp flera bilder på Fermi.

Ett misstag som nVIDIA gjorde vid denna presentation var att de borde ha haft ett synligt, fungerande system med Fermi som körde applikationer för att vissa prestandan. Detta skulle förhindra en hel drös av spekulationer och konspirationer.

Citat:

Varför ens publicera en bild på som inte bevisar någonting?

Ja varför? För att stjäla fokus från HD5970. Sparka upp lite damm. Väldigt simpelt.

Citat:

Över en månad att bygga lager? Om inte ens TSMC kan få ut tillräckligt med kretsar till en redan lanserad produkt (Rv870), som dessutom är betydligt mindre än G300 så skulle jag inte ha för stort förtroende för att Nvidia kommer sitta på något större lager av sina kretsar.

De får inte ut tillräkligt för att RV870 är en lanserad produkt som säljs. Fermi säljs inte, eller inte änns lanserad. Så det råder ingen konsumtion av den i gemförelse med HD5xxx

____________________________________________

Citat:

Ursprungligen inskrivet av S1im
VR-zone som jag håller som en trovärdigare källa tror/vet att Fermi ligger 4-5 månader bort. Dessutom har dom problem att få upp hastigheterna.

http://vr-zone.com/articles/fermi-in-trouble-/8054.html?doc=8...

Jag ser inte hur de är trovärdigare. Deras stöttpelare för artikel bygger på PDF och pressrelease av Tesla C2050/C2070. Och av det fick de ut att Fermi är 4-5 månader försenad, att Fermi har problem osv. Man undra hur de fick det från, de har knappast kunnat få det ut från deras källförtäckningar!?

Hela artikel bygger på fragment av information och resten fylls in med skribentens egna ord, analys och övertygelser. Säger inte att det är osant eller sant, men artikeln innehåller allt för många lösa trådar som är inte knytna till något konkrett eller med belägg.

Citat:

Ursprungligen inskrivet av lideri
Tror du ens på det där själv?

Hade Nvidai haft några kretsar över huvud taget att sälja hade de gjort det, nu eller i alla fall innan Jul. Inget företag är så dumma att det ignorerar julhandeln, Inte ens Nvidia. Nvidia är hårt pressade att visa upp nya konkurrenskraftiga kort och jag lovar att de kommer släppa kort så fort det över huvud taget går, även om det är i mindre volymer än till och med 5970.

Just nu hade det varit bättre för Nvidia att papperslansera med 100 kort till recensenter än att sitta helt utan kort som de gör nu. Då hade de i alla fall get oss entusiaster något att se fram emot.

Det finns i princip aldrig några anledningar att bygga upp stora buffertar före lansering, i alla fall inte om man inte ligger extremt långt framför konkurrenterna, tänker på Intell inför i5 lanseringen som verkar gått rätt smidigt.
Det finns alltid pengar att tjäna på att vara ute tidigt.
Om efterfrågan är för hög kan man alltid justera till det genom att höja priset tills efterfrågan motsvarar tillgången.

Med den information som är tillgänglig idag så tror jag på det. Men min åsikt kan ändras om nya omständigheter presenteras, vilket de kommer göras.

Vad är meningen att sälja kretsar om man inte skulle kunna tillgodose den preliminära efterfrågan?

Om produkten är väntad och har goda förväntningar från konsumenter så kan ett buffert av kretsar vara en god sak att ha för att tillgodose efterfrågan. Speciellt om förväntningar om produkten infrias eller mer.

Rykten och lösinformation om kommande GPU börjar dyka upp flera månader innan den officiella informationen. Under denna tid så byggs ett moment av förväntningar upp från entusiaster och konsumenter. HD5xxx är ett tydligt exempel där det finns en stor hunger för dessa kort just nu. Skulle ett buffert finnas skulle dagens tillgänglighet av HD5xxx vara god och fler skulle få dessa kort i handen idag. Vilket skulle bara gynna AMD ekonomiskt och marknadsmässigt, både kortsiktigt och långsiktigt.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AmiDonk
Jasså...Har för mig att SweClockers redan gjort tester med 58**

jo men går det få tag i ett?

Visa signatur

"I may be wrong, but I'm not uncertain."
Robert Heinlein, Glory Road

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av STimmyS
jo men går det få tag i ett?

Ja.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Chamezz
Bilden på skärmen skulle lika bra kunna vara ett filmklipp eller screenshot...

Eller så är det äkta.

Permalänk
Medlem
Citat:

[i]Wall of text...

Skulle ett buffert finnas skulle dagens tillgänglighet av HD5xxx vara god och fler skulle få dessa kort i handen idag. Vilket skulle bara gynna AMD ekonomiskt och marknadsmässigt, både kortsiktigt och långsiktigt. [/B]

Tror du att ATI skulle ha fler 58xx kort, totalt tillverkade och leverrede till kunder om man byggt upp en större buffert innan release och väntat en månad med att släppe kortet. För att inte tala om pengar i kassan?

Det finns två alternativ,
1. Lansera när man tycker att man har rimligt med kretsar att sälja, och börja sälja kretsar så tidigt som möjligt

2. Bygga upp ett lager av kretsar och vänta med lanseringen tills lagret är så stort att man bedömer att man kan tillgodose hela efterfrågan direkt vid lansering?

Vilket alternativ tror du generera mest pengar och PR för företaget? Alternativ 1 ger både mer pengar och mer PR då man kan vara först med en ny het produkt.

Visa signatur

"Jag har inte gått 5 år på Chalmers, men till och med jag vet att det är en dum idé att blanda vatten och elektronik"
Min Fru

Permalänk
Medlem

Dessutom, är tillgången låg och konkurrentens kort långt bort i tiden kan man höja priset och ändå sälja allt som produceras. Vilket redan hänt.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av DataNusse
Det här är min första riktiga "eldiga" diskussion på många många månader. Men ja, jag brukar hamna oftast i nVIDIA's försvar men det har aldrig varit pågrund av märke. Jag motsätter mig bara när något jag inte håller med om eller har en annan åsikt.

Men mina åsikter och övertygelser bygger inte på någon lydighet till ett märke eller färg. Även om många få sig att tro det.

Ja man kan ju bara dra en enda slutsats.

[QUOTE]
Jag förstår fortfarande inte varför man bli förbannad på detta och den känns nästan löjligt att bli det. Grafikkortet var ett mocap, ett icke fungerande exemplar. Man visade en liten demonstration av prestandan i en applikation och det var allt. Utseendet på kortet var korrekt nu när det har dykt upp flera bilder på Fermi.

Ett misstag som nVIDIA gjorde vid denna presentation var att de borde ha haft ett synligt, fungerande system med Fermi som körde applikationer för att vissa prestandan. Detta skulle förhindra en hel drös av spekulationer och konspirationer.

[/QUOTE]

Ja man kan ju bara ställa sig en fråga och det är varför? Om man nu HAR fungerande exemplar VARFÖR i hela världen väljer man då att ta en märklig hybrid till attrapp. Den var ju inte ens lik originalet. Enligt mig är det helt ologiskt.

Om man har riktiga modeller så finns det aldrig någon anledning att visa upp tidiga exemplar, eller vad det nu var.

[QUOTE]
Ja varför? För att stjäla fokus från HD5970. Sparka upp lite damm. Väldigt simpelt.
[/QUOTE]

Exakt. That's my point.

MEN, varför inte då lägga upp en hel video då istället för en skärmbild som man på förhand VET att det kommer bli ifrågasatt. Alla moderna kameror kan man videofilma med. Jag hade ju aldrig varit så trög att jag bara tog en bild, jag hade filmat.

[QUOTE]
De får inte ut tillräkligt för att RV870 är en lanserad produkt som säljs. Fermi säljs inte, eller inte änns lanserad. Så det råder ingen konsumtion av den i gemförelse med HD5xxx.
[/QUOTE]

Även om Nvidia kan lägga Fermi's på lager så har TSMC fortfarande problem, vilket innebär att det är ännu färre Fermi's som kommer ut riktiga. Man får vara väldigt naiv om man tror att det kommer finnas en massa Fermi's i lager hos återförsäljarna.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman

MEN, varför inte då lägga upp en hel video då istället för en skärmbild som man på förhand VET att det kommer bli ifrågasatt. Alla moderna kameror kan man videofilma med. Jag hade ju aldrig varit så trög att jag bara tog en bild, jag hade filmat.

För att jävlas med alla som tvivlar på dom?

Vi kan ju omöjligt veta om det är äkta eller inte.

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Ja man kan ju bara dra en enda slutsats.

Vilken slutsats skulle det vara då?

Citat:

Den var ju inte ens lik originalet.

Fel. Den ser precis ut som Tesla C2050 som är et bekräftad Fermi kort.
Fermi
Tesla C2050

Citat:

MEN, varför inte då lägga upp en hel video då istället för en skärmbild som man på förhand VET att det kommer bli ifrågasatt.

För att föra upp en diskutione utan att avslöja allt för mycket.

Citat:

Ursprungligen inskrivet av lideri
Tror du att ATI skulle ha fler 58xx kort, totalt tillverkade och leverrede till kunder om man byggt upp en större buffert innan release och väntat en månad med att släppe kortet. För att inte tala om pengar i kassan?

Det finns två alternativ,
1. Lansera när man tycker att man har rimligt med kretsar att sälja, och börja sälja kretsar så tidigt som möjligt

2. Bygga upp ett lager av kretsar och vänta med lanseringen tills lagret är så stort att man bedömer att man kan tillgodose hela efterfrågan direkt vid lansering?

Vilket alternativ tror du generera mest pengar och PR för företaget? Alternativ 1 ger både mer pengar och mer PR då man kan vara först med en ny het produkt.

Jag tror det. Fler skulle våga beställa kort utan att vara rädd att leveransen drar ut på tiden. Det skulle göra att fler skulle få ett AMD kort i handen på direkten och eventuellt ta möjliga kunder från nVIDIA.
I nVIDIA’s fall skulle jag tro att fall ett är ett bättre val.

Fermi en helt ny arkitektur i gemförelse med RV8xx. nVIDIA går i en helt ny riktning med Fermi och (GP)GPU är väldigt avancerad och har stora potentiell. De vinner inget på att stressa fram sin lansering av Fermi.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse

Jag ser inte hur de är trovärdigare. Deras stöttpelare för artikel bygger på PDF och pressrelease av Tesla C2050/C2070. Och av det fick de ut att Fermi är 4-5 månader försenad, att Fermi har problem osv. Man undra hur de fick det från, de har knappast kunnat få det ut från deras källförtäckningar!?

Hela artikel bygger på fragment av information och resten fylls in med skribentens egna ord, analys och övertygelser. Säger inte att det är osant eller sant, men artikeln innehåller allt för många lösa trådar som är inte knytna till något konkrett eller med belägg.

Rykten och lösinformation om kommande GPU börjar dyka upp flera månader innan den officiella informationen. Under denna tid så byggs ett moment av förväntningar upp från entusiaster och konsumenter. HD5xxx är ett tydligt exempel där det finns en stor hunger för dessa kort just nu. Skulle ett buffert finnas skulle dagens tillgänglighet av HD5xxx vara god och fler skulle få dessa kort i handen idag. Vilket skulle bara gynna AMD ekonomiskt och marknadsmässigt, både kortsiktigt och långsiktigt.

Är nog mer än så. Deras erfarenhet av industrin, produktion och hur lanseringar alltid sett ut (ATI Demoade sina Evergreen först 4 månader innan lansering, Juni 2009). Om du läser andra insatta källor, dvs folk som har jobbat eller jobbar inom industrin, så säger de precis samma sak. Det är en sak att producera chips men det ska också göras kort hos AIB tillverkare etc. Det är också viktigt att påpeka att man säger "in quantity". Stor skillnad på att lansera ett kort och samtidigt klara av att ha en stor kvantitet på hyllorna.

Faktum är att om TSMC problem fortsätter så har nog inte ATI stora kvantiteter för Feb som senast. Och bara det säger en stor del. ATI lanserade med en viss buffert till OEM men hade för liten sats till retailers(tillgång/efterfråga). TSMC har mysteriska problemer och det är svårt att gissa rätt i konjunkturen är det intrycket jag fått från material jag läst hitintills. ATI fick precis se sina första två veckor av December hyll-tillgänglighet (ser ut som bra tillgång först i mitten på Decembe) i princip bortsopade av dessa problem som skulle vara lösta men har kvarstått hos TSMC.

Rykten säger att A3 är i produktion (sedan en vecka ca), rykten. Dvs Nvidia hoppas på att kunna lansera någon gång i Q1 2010 inget mer, för att citera dem rakt av "Editors’ note: As previously announced, the first Fermi-based consumer (GeForce®) products are expected to be available first quarter 2010. Finns en del som bedömmer att vi inte kommer se stor tillgång på Fermi Geforce för äns Q2 också. Och för att vara ärligt om TSMC problem fortsätter så kommer så vara fallet också.

Hursomhelst, det som spelar roll är om en produkt existerar. Nvidia försöker här få folk att prata om en bild och på så sätt hålla en buzz gående om en icke lanserad produkt. Vilket man lyckas med. Bilden är intetsägande men har som syfte att skapa en produkts tillgänglighet i tanken även om det dröjer ett ganska bra tag till. Förövrigt vet ingen något om Fermi Geforce än förutom att den ska kunna köra DX11. Prestandan är väldigt svår att försöka tolka, insatta människor gissar i dagsläget på att den inte kommer kunna ta prestandatronen men det handlar om extrapolering från det man vet om Fermi från HPC-segmentet (ECC avslaget).

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Xenir
För att jävlas med alla som tvivlar på dom?

Vi kan ju omöjligt veta om det är äkta eller inte.

Exakt. Bilden är intetsägande och jag bara påpekade att det uppenbara med att de bara lagt upp en bild. Vilken som helst modern människa hade filmat, om så med mobilen.

Följdfrågan är då, varför får man inte en film? Jo för att Nvidia vill inte visa hur Fermi presterar i Dx11.

Citat:

Ursprungligen inskrivet av DataNusse
Vilken slutsats skulle det vara då?

Att du likt många andra människor har blivit så matad med marknadsföring att du är trogen ett visst varumärke oavsett vad som är logiskt och mest gynnsamt under rådande omständigheter.

Om du nu inte föredrog ett varumärka som Nvidia så hade man ju hört dig diskutera ATi, i positiv bemärkelse, också. Vilket jag aldrig sett.

....
[QUOTE]
Fermi en helt ny arkitektur i gemförelse med RV8xx. nVIDIA går i en helt ny riktning med Fermi och (GP)GPU är väldigt avancerad och har stora potentiell. De vinner inget på att stressa fram sin lansering av Fermi.
[/QUOTE]

R600 var också en helt ny arkitektur med enorm potential. Inte förrän generation tre så har arkitekturen visat sin fulla potential.

Jag hörde inte direkt så många positiva ord om den arkitekturen från din sida.

Jag håller med om att Fermi har en stor "potential" men som workstation-kort. Som >>gamer<< så ser jag inte vad nytt Fermi kommer tillföra. CUDA är för tillfället inte särskilt utbrett och jag vet inte vilka applikationer jag ska sitta och köra med mitt eventuella Fermi-kort.

Vad är det du ska köra med CUDA?

Citat:

Ursprungligen inskrivet av Kraeshok
Shit load of text...

Skönt att det finns flera med en någorlunda objektiv syn på samtiden.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

För min egen del så har diskussionsvärdet på Nvidias FUD passerat bäst före-datum sedan länge, jag är mer intresserad av att se oberoende tester av produkten och se den i handeln.

Ställningstaganden om vilket märke och produkt som är mest gynnsamt, ekonomiskt eller vad det nu kan vara, lämnar jag upp till var och en. Faktiskt.

Visa signatur

Science flies you to the moon. Religion flies you into buildings.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Solaris
För min egen del så har diskussionsvärdet på Nvidias FUD passerat bäst före-datum sedan länge, jag är mer intresserad av att se oberoende tester av produkten och se den i handeln.

Ställningstaganden om vilket märke och produkt som är mest gynnsamt, ekonomiskt eller vad det nu kan vara, lämnar jag upp till var och en. Faktiskt.

Tack. Då kan vi alltså diskutera detta vidare med ditt godkännande?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Tack. Då kan vi alltså diskutera detta vidare med ditt godkännande?

Ska tänka på saken.

Visa signatur

Science flies you to the moon. Religion flies you into buildings.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Dinoman
Exakt. Bilden är intetsägande och jag bara påpekade att det uppenbara med att de bara lagt upp en bild. Vilken som helst modern människa hade filmat, om så med mobilen.

Följdfrågan är då, varför får man inte en film? Jo för att Nvidia vill inte visa hur Fermi presterar i Dx11.

Eller så ville dom bara ge oss 2 bilder bara för att, som sagt, jävlas:)

Det blir ju mer och mer prat ju mindre info dom ger, och ger dom oss 2 bilder så ska du se att det pratas om det.

Deras gpu, deras regler.
Vi får vänta och se

Permalänk
Citat:

Ursprungligen inskrivet av Dinoman
Att du likt många andra människor har blivit så matad med marknadsföring att du är trogen ett visst varumärke oavsett vad som är logiskt och mest gynnsamt under rådande omständigheter.

Om du nu inte föredrog ett varumärka som Nvidia så hade man ju hört dig diskutera ATi, i positiv bemärkelse, också. Vilket jag aldrig sett.

R600 var också en helt ny arkitektur med enorm potential. Inte förrän generation tre så har arkitekturen visat sin fulla potential.
Jag hörde inte direkt så många positiva ord om den arkitekturen från din sida.

Bara för att man inte pratar gynnsamt om AMD (ATI) så betyder det inte att man är bunden till nVIDIA. Jag sade det för och säger det nu. Jag är inte lojal till ett märke, men om du vill sätta mig i ett fack så att din linjära världsuppfattning inte rubbas så kan du göra det. Det får du göra av mig. För att jag bryr mig så.

Inte helle många negativa ord om AMD's arkitektur har jag nämt förutom om R600 vilket var ett halv klar krets som borde aldrig ha sett ljuset.

AMD’s nuvarande arkitektur är intressant då den har en väldigt hög teoretisk beräkningskapacitet. Men problematiken är att det är väldigt svårt, om änns möjligt, att nå till max kapacitet i gemförelse med nVIDIA’s arkitektur där max beräkningskapacitet är lätt att nå. Detta kan kanske ändras med OpenCL och DC till AMD's fördel. Man får se.

ATI’s största brist har alltid varit dåliga/icke existerande PR och satsning på Community och spelutvecklare. Jag fann det otroligt oansvarigt och rent idiotiskt att inte satsa på PR, speciellt om man hade bättre produkter än konkurrenten. Sedan AMD köpte ATI har mycket förbättrats, t ex drivrutiner och deras PR. Men de har långt väg att gå. De måste satsa mer på spelutvecklare, marknadsföra sig på sådant sett som att sätta sin logo på spellådor t ex. AMD måste synas mer.

Citat:

Vad är det du ska köra med CUDA?

Fysik, AI t ex. även om detta inte är fullt förverkligat än. Men nVIDIA vill ändra på detta och troligen många andra aktörer.

Då denna diskussion börja gå till ämnen som inte är relevanta till trådensämne så föreslår att de kan tas genom PM där du kan också självhävda hur objektiv syn du har.

PS: Stavfel fix

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av DataNusse
Bara för att man inte pratar gynnsamt om AMD (ATI) så betyder det inte att man är bunden till nVIDIA. Jag sade det för och säger det nu. Jag är inte lojal till ett märke, men om du vill sätta mig i ett fack så att din linjära världsuppfattning inte rubbas så kan du göra det. Det får du göra av mig. För att jag bryr mig så.

Inte helle många negativa ord om AMD's arkitektur har jag nämt förutom om R600 vilket var ett halv klar krets som burde ha aldrig sett ljuset.

AMD’s nuvarande arkitektur är intressant då den har en väldigt hög teoretisk beräkningskapacitet. Men problematiken är att det är väldigt svårt, om änns möjligt, att nå till max kapacitet i gemförelse med nVIDIA’s arkitektur där max beräkningskapacitet är lätt att nå. Detta kan kanske ändras med OpenCL och DC till AMD's fördel. Man får se.

ATI’s största brist har alltid varit dåliga/icke existerande PR och satsning på Community och spelutvecklare. Jag fann det otroligt oansvarigt och rent idiotiskt att inte satsa på PR, speciellt om man hade bättre produkter än konkurrenten. Sedan AMD köpte ATI har mycket förbättrats, t ex drivrutiner och deras PR. Men de har långt väg att gå. De måste satsa mer på spelutvecklare, marknadsföra sig på sådant sett som att sätta sin logo på spellådor t ex. AMD måste synas mer.

Fysik, AI t ex. även om detta inte är fullt förverkligat än. Men nVIDIA vill ändra på detta och troligen många andra aktörer.

Då denna diskussion börja gå till ämnen som inte är relevanta till trådensämne så föreslår att de kan tas genom PM där du kan också självhävda hur objektiv du är.

Du ger en bild av vara väldigt pro-Nvidia så du vet, kolla din signatur exempelvis. Huruvida du är en Nvidia-fanboy eller inte är dock rätt irrelevant i denna tråd.

Innan ATI köptes upp så satsade de ju ändå rätt mycket utåt, se bara på många äldre spel där ATI syns exempelvis när spel startas. Exakt hur mycket de medverkat vet jag dessvärre inte, men jag kan inte minnas att jag sett ATI's eller AMD's "ATI" visats under något av senare års spel. Rätt trist faktiskt.

Drivrutinerna har blivit klart bättre sedan AMD köpt upp ATI, speciellt under linux. Men AMD är inte i närheten lika inblandad i allt som Nvidia vilket är synd. AMD får gott börja kämpa lite med tycker jag, det räcker inte med att göra bra produkter när konkurrenterna bekämpar de även på de andra fronterna.

Permalänk
Citat:

Ursprungligen inskrivet av anders.149
Du ger en bild av vara väldigt pro-Nvidia så du vet, kolla din signatur exempelvis. Huruvida du är en Nvidia-fanboy eller inte är dock rätt irrelevant i denna tråd.

Innan ATI köptes upp så satsade de ju ändå rätt mycket utåt, se bara på många äldre spel där ATI syns exempelvis när spel startas. Exakt hur mycket de medverkat vet jag dessvärre inte, men jag kan inte minnas att jag sett ATI's eller AMD's "ATI" visats under något av senare års spel. Rätt trist faktiskt.

Drivrutinerna har blivit klart bättre sedan AMD köpt upp ATI, speciellt under linux. Men AMD är inte i närheten lika inblandad i allt som Nvidia vilket är synd. AMD får gott börja kämpa lite med tycker jag, det räcker inte med att göra bra produkter när konkurrenterna bekämpar de även på de andra fronterna.

Om man är så enkelsinnad att man ser någons signatur som är bygger på fakta och underbyggda referenser som indikation att man är lojal till ett visst märke. Ja då kanske finns det en anledning varför man är enkelsinnad och säger mer om en själv än om den med signaturen.

Det är pesic vad jag tycker är dåligt. AMD och före detta ATI hade/har inget ordentligt ansikte utåt vilket de måste ha om de ska kunna verkligen konkuerra mot nVIDIA på samma nivå.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse

ATI’s största brist har alltid varit dåliga/icke existerande PR och satsning på Community och spelutvecklare. Jag fann det otroligt oansvarigt och rent idiotiskt att inte satsa på PR, speciellt om man hade bättre produkter än konkurrenten. Sedan AMD köpte ATI har mycket förbättrats, t ex drivrutiner och deras PR. Men de har långt väg att gå. De måste satsa mer på spelutvecklare, marknadsföra sig på sådant sett som att sätta sin logo på spellådor t ex. AMD måste synas mer.

Med andra ord kan AMD/ATI lära sig mycket genom att snegla på Nvidia och analysera hur deras PR-relationer fungerar..

Visa signatur

q9550@3,4Ghz, GTX275, 4GB DDR2 Corsair XMS2//HTPC AmdX2 4600+ passivt kyld med scythe ninja mini, Antec NSK 2480

Fractal design arc midi r2// core i7 4770k@ 4,4ghz :)
// corsair h100i // corsair hx 850m// asus maximus VI hero//
Corsair vengeance pro 2400mhz// intel ssd 335 180gb// gigabyte gtx 780 OC@1200mhz Core//win 8.1

Permalänk
Citat:

Ursprungligen inskrivet av Pantheus
Med andra ord kan AMD/ATI lära sig mycket genom att snegla på Nvidia och analysera hur deras PR-relationer fungerar..

Nja. AMD behöver inte göra en kopia av vad nVIDIA gör. Men de måste förstå det riktiga värde av PR, vilket jag tror de gör nu. Sedan FX-serien har nVIDIA’s marknadsvärde ökat gemför med ATI, de har haft en god rapportering av positiva kvartal/årsrapporter, deras övertag av marknadsandelar har varit stark. Trotts att båda företagen har haft goda och jämbördiga produkter under åren. En annan faktor måste vara med och det är PR tror jag.

nVIDIA gör redan PR för Fermi och Tesla version av Fermi, C2050/C2070, t ex på mässan CS09.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Orici
Nej, det är jag inte.

Jag ser bara inte det roliga i det, jag tycker snarare att det ser ut som ett sätt att provocera folk.

Så ditt svar är:

Nej det är jag inte

Fast jag tycker ingenting är roligt!

Det är ungefär vad jag får ut av det där..

Datanusse baserat på det sjukligt maniska sätt du försvarar och hyllar minsta lilla ord från nVidia så kan vi anta att om Fermi skull lanseras, och visa sig explodera i 50% av datorerna så skulle du sitta här och argumentera för att det är meningen att de ska fungera så för att världen har fått för manga datanördar eller något liknande.

nVidia lever otroligt mycket på sitt märke som ickevetande tror är 100gr bättre än ATI även om kortet i fråga är likvärdigt eller sämre. Sen har färgkombinationen "neongrönt" och svart en stor dragningskraft på fjortisar av någon anledning (se XFX för ett ytterligare exempel på detta).
Alla som inte är enorma fanboys måste ju hålla med om att en 50-50 uppdelning av marknaden vore bäst för oss koncumenter. gäller naturligtvis både på grafik och CPU marknaden..

Sen hoppas jag inte att som Datanusse säger "vägen att gå" är att blanda sig i spelutvecklarnas arbete för att förstöra för konkurentens hårdvara stämmer, det skulle leda till en utveckling där dataspel blir beroende av vilket grafikkort man har och få en uppdelning liknande exklusiva titlar på spelkonsoller. Om dett är din ideala farmtid så har du något fel där uppe..

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse

nVIDIA gör redan PR för Fermi och Tesla version av Fermi, C2050/C2070, t ex på mässan CS09.

Jo, det verkar också som om nvidia planerar i god tid med PR, och när kortet släpps så kommer de se till att korten finns på marknaden så att de inte kommer i den situation som AMD befinner sig i nu, där efterfrågan är större än leveranskapaciteten.

Undrar förresten varför inte AMD sätter mer press på TSMC?

Visa signatur

q9550@3,4Ghz, GTX275, 4GB DDR2 Corsair XMS2//HTPC AmdX2 4600+ passivt kyld med scythe ninja mini, Antec NSK 2480

Fractal design arc midi r2// core i7 4770k@ 4,4ghz :)
// corsair h100i // corsair hx 850m// asus maximus VI hero//
Corsair vengeance pro 2400mhz// intel ssd 335 180gb// gigabyte gtx 780 OC@1200mhz Core//win 8.1