konsolskräp denna generation
och konsolskräp redan från början av nästa generation
dom borde köra på allra minst 6870 för att vara NÅGORLUNDA icke föråldrad, och eg. HD7000 serien med tanke på när den släpps.
men den breda fårmassan kommer nog inte bry sig...
fan va slösaktigt att köpa detta NU, nästan ett halvår i förväg...
är inte ens säkert om dagens socket 2011 MOBO:s kommer få riktigt pci-e 3.0 stöd eller om det kommer en ny revision.
intels topp CPU gör ju försumbar skillnad i spel mot näst-topp, som dessutom kan klockas. dubbelt pris dock.
jag tror mer grabbarna skaffar sig varsin sprillans ny dator...
...och sen tjatas det om adblock
är löjligt att folk klagar på upplösning vs storlek! full-hd är den dominerande standardupplösningen, vill man sen inte ha en microskärm så måste pixeltätheten minska och skärmens storlek öka! det är frågan om vad folk föredrar... men vissa kanske vill ha en retina-display i full-hd på 8"?
körde själv med 40" full-hd tv som datorskärm förut, och det är RIKTIGT skönt på ögonen när allt är "jumbostort", det blev inte heller "pixelerat" för mig fast jag är en riktig quality-wh*re! film/spel/surf - you name it, var mycket fetare än min nuvarande 1600x1200 21"
sen är det 120Hz som är #1 grejen med denna skärm (3D).
hur många har en dator som ens kan i 1080p köra ett krävande spel på högsta inställningar och leverera stadiga 120fps ???
då är 3D i 2560x1440 kanske ett par grafikgenerationer bort från idag...
att det är "designerskärm" betyder bara att utseendet är något utöver "det vanliga" och också är ett säljargument. "vanligt" är en generic plastram runt skärmen och en plastfot, har man sett några stycken, har man sett alla
enda jag själv reagerar på är att "nyheten" på swec stinker betald annons av tillverkaren
Får SweC betalt för att göra en reklam-"nyhet" på förstasidan?
för det nämns 3D, men inget nämns om att nV 3D-vision inte stöds
pga av att samsung skickar med två st egna shutter glasses
och man måste använda 3D middleware (drivrutiner) från DDD (till skillnad från nV's egna)
Finns ju visst ett sätt, Felix kom också på det...
En HDMI dubbelhane adapter bryter inte reglerna
och en DP <---> HDMI (hona) gör inte heller det
1 + 1
ska du göra beräkningar på GPU behöver du mycket gpu-ram,
annars får du hålla dig till mindre datamängder.
det finns gtx580 med 3GB, siktar själv på det...
(dock blir det förmodligen omöjligt att vattenkyla med retail block :/ ) http://www.prisjakt.nu/produkt.php?p=811612
finns inga ledningsbanor som ENDAST går tvärs över kortet sådär, och även då skulle de smält och gått av långt innan de bränner igenom PCB-materialet, dessutom skulle det inte vara så lokalt utan bränt över en större yta (på fler ställen på pcb:en)
SysGhost var inne på ett bra spår förut...
jag tror kortet kanske gick sönder på riktigt (i vanlig ordning) sen tog snubben och antingen
skruva loss det, kapa rakt upp-o-ner med bågfil, elda på kanterna för utseende,
eller,
utan att skruva loss skar av med en Dremel (el liknande)
eller
bara bröt av det
tror personligen till 99% att det är fabricerat, Ace agg, åska, låter som efterkonstruktioner
man har inte Ace agg till en ~12k+ dator och moderna elnät har skydd mot åska
kan du TS inte lägga upp högupplösta bilder så man kan ta sig en bättre titt?
denna skärmen kommer med ett par egna SG, och stöds därmed inte av nV 3d-vision
för spelande använder den sig av DDD tridef drivrutinen (inte nV:s egna) med fördelen att funka till alla gpu:er
nu är första frågan om man kan koppla denna över dvi (inte hdmi) och använda nV 3dtv play
och andra frågan är vad input laggen ligger på
@definition kan du länka till acers 27" 120Hz:are?
men källan de tog från förklarar att dom halverar upplösingen (interlace:ar) men samtidigt dubblar framerate:n till 240.
frågan är hur bra detta blir i praktiken... http://infinia.lge.com/archives/2343
AMD är ju redan vad? typ 1 år bakom intel teknologimässigt, har endast 20% av CPU marknaden
och har svårt att konkurrera med nV i grafik
det enda trumfkortet/chans dom hade var Fusion
fixar intel nu in nV-grafik i sina CPU:er så har ju AMD inget att komma med.
den stora grå massan, som redan är sjukt fördomsfull mot AMD, kommer tänka kortsiktigt och själviskt
AMD kommer bli svagare och svagare, konkurrensen minska mycket mer, närmare monopol - priser/makt
skillnaden är att traditionella cpu-pins är bara stavar som ska långt in i hål (no pun intended)
dessa kan därför lätt böjas, med allt vad det medför...
lga är mycket robustare då pinsen på MB inte är långa stavar utan små/korta fjädrande knoppar,
och de ska inte in i några hål - de ska bara pressas mot en platt yta
därmed är det väldigt svårt att komma åt något på felaktigt sätt och risken att böja sönder det minimerad