"Crysis får mig att må illa"

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Maah91
Imo så lär det ju ha varit ett rätt dåligt drag av Crytek att släppa ett dåligt optimerat demo de skulle ha väntat och släppt sin bomb av eventuell besvikelse på release istället ^^ nu börjar folk oroa sig istället.

All reklam är bra reklam

Att få så mycket massmedial uppmärksamhet de fått av ett demo tror jag inte ett enda företag skulle tacka nej till.

Visa signatur

Programmerare med C++ som huvudspråk.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Nemcue
Med ett Radeon 1950 Pro så var både Bioshock och HL2: Episode 2 väldigt mycket snyggare än Crysis-demot, och (subjektivt, javisst) bra mycket bättre spelkänsla också för den delen.

Då menar jag med en spelbar FPS såklart.

Mycket lättare att göra det från Bioshock än crysis t.ex tackvare att Crysis består av gigantiska utomhus-miljöer, medans bioshock är inomhus i trånga rum, kräver mycket mindre kraft

Visa signatur

Vem orkar uppdatera den här signaturen egentligen? Kommer ju ny teknik hela tiden :(

Permalänk

nu ska ni inte krydda i onödan det kan vara stor skilnad i helversionen och demot sen kommer det komma patcher

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av hygienteknikern
Jag kör allt på medium i 1024x768 utan AA och tycker också det ser helt ok ut.
Testade även att dra upp det till high och visst, det var lite sämre fps men likväl spelbart. Är inte ute efter att lira i svinhöga upplösningar utan söker ett jämt bra flyt. Fysiken är underbar. Det enda som stör mig dock är att alla lik blir pinnstela och inte kan påverkas av fysiken. Skjuter jag en död korean i pannan med dubbla pistoler vill jag iaf se lite het whiplash-action....

Vad har du för skärm?
Har du 19" skulle jag nog rekommendera dig att spela på 1280x1024 och dra ner lite på effekterna

Visa signatur

Laptop : Macbook Pro M1

Permalänk
Medlem

Även när jag kör på Very High med 15 fps ser inte ljuset så bra ut. Detta gör att det här spelet ser bara lite bättre ut än alla andra. Jag hade förväntat mig bättre grafik.

Att det dessutom är helt ospelbart på högsta, allmänt tråkigt FPS spel och alla dessa fula löngner gör ju inte saken bättre.

1/10p från mig.

Permalänk

Synd att folk ska rata ett spel direkt pga en demo.

Permalänk
Medlem

Så dåligt tycker jag inte att det är. Visst, grafiken är långtifrån lika bra som man "trodde", men det är ändå rätt snyggt. Och tråkigt tycker i alla fall inte jag att det är, det är rätt innovativt med nanosuiten.

Visa signatur

CPU AMD Ryzen 7 7800X3D per-core CO + 2133 MHz FCLK GPU Sapphire RX 7900 XT Pulse OC
RAM Corsair 2x16GB 6000 MT/s CL30 Hynix BZ subtimings MB ASUS ROG Strix B650E-F Gaming WIFI
SSD Kingston KC3000 2TB Ljud Creative AE-5 Plus PSU Corsair RM850x NAS Synology DS423+

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zuch
Om ett program som inte är skrivet för dualcore belastar till 100% visas det i aktivitetshanteraren som 50% på dual-core, eftersom kärnorna då delar på det. Det är också därför det blir 25% i quadcore-fallet (eftersom det är fyra som då delar på det). Om det hade varit skrivit så att dual-core hade kunnats utnyttjats så hade dual-core blivit belastat 70-90% och en quad 35-45%.

Nu vet jag inte hur det är fallet om detta spelet är skrivet för dual-core eller inte, om man tittar på era CPU belastningar så verkar det ju inte vara så.

Jo det stödjer dualcore, det är det som bilden visar. Den använder 50% av kärna 0 och 50% av kärna 1 som jag visar på bilden.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Redbullen
Synd att folk ska rata ett spel direkt pga en demo.

En Demo är till för att ge en försmak av spelet. Om demon är kass med allt vad det innebär blir förmodligen spelet det också.

Permalänk
Citat:

Ursprungligen inskrivet av Gurrty
En Demo är till för att ge en försmak av spelet. Om demon är kass med allt vad det innebär blir förmodligen spelet det också.

Förmodligen ja, men ingen vet med säkerhet om dom släpper en demo för att se hur det funkar ute i världen.
eller hur ?

Permalänk
Medlem

Oblivion med alla extra grafik patchar är nästan snyggare,
och det flyter bra med.. d:

men kommer specielt ihåg Doom3 med min gamla burk..

AMD64 3000+
1gb ram
GF 5900XT

kunde lira skiten på ultra... utan problem.

Visa signatur

Zalman GT900 - Corsair 850W - ASUS H97-PLUS - Intel Core i5 4590 - Ballistix sport 1600MHz 16GB - Nvidia 970GTX OC -Crucial ssd256GB - x2 WD 1000GB

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Arzei
Så dåligt tycker jag inte att det är. Visst, grafiken är långtifrån lika bra som man "trodde", men det är ändå rätt snyggt. Och tråkigt tycker i alla fall inte jag att det är, det är rätt innovativt med nanosuiten.

Men snälla nån, detta inlägg tillsammans med en bunt andra har ju inget med artikeln att göra... Skribenten talar inte illa om hur bra spelet är eller hur bra/dålig grafiken är. Det han disskuterar är ju huruvida Crytek m.fl. uppför sig korrekt eller ej som företag med falsk marknadsföring och fula samarbeten med hårdvaru tillverkare.

Tycker artikeln var mycket intressant och den ger lite perpsektiv på hur alla företags framsidor och fina marknadsföring döljer vad som sker bakom kulisserna.

Visa signatur

E6600 @ 3,3 Ghz, Asus P5W DH Deluxe, 2GB Patriot 800Mhz CL4, X1900XT, 2x250 GB, Cooltek 600W, P182, Fläktkylt

Vaio T5500, 2GB 667Mhz, 120GB, GeForce Go7400

Permalänk

Det blir lätt så här inne på sweclockers att rubriken i en tråd inte stämmer med 90% av samtalsämnet...

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av ampariii
Jo det stödjer dualcore, det är det som bilden visar. Den använder 50% av kärna 0 och 50% av kärna 1 som jag visar på bilden.

När dual core används så ska de ligga på 100% som denna bild visar
http://jamespaulp.files.wordpress.com/2006/12/cpuusage.JPG

Visa signatur

You stink. Bender's great. Deal with it

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Centura
Jo, blev väldigt besviken också på spelet. Spelet tillät mig enbart att köra på Low, inget annat. Sen använde spelet min P4 HT 3.0GHz max 72%. Oftast 60-70%.

Sen verkar det vara hyffsat dåligt optimerat. Massor av folk har prestanda monster till dator och ändå kan dom inte köra i den grafiken och upplösningen CryTek lovade för ett halvår sen. De sa att en 8800GTX, Dual Core Processor, 2GB RAM kommer kunna köra spelet i 1920x1200. Det verkar inte som det.

Jo, visst, de har också sagt att spelet är före sin tid, men det ska ändå vara spelbart på högsta eller näst högsta. Sen är det ännu sämre att de lovar något och sen inte uppfyller det.

Jag håller verkligen med krönikan. Det är väldigt fult gjort.
Jag såg i princip ingen skillnad mellan Direct X 9 Very High och Direct X 10 Very High.

Var har du sett dom bilderna elr filmerna????

Visa signatur

AMD ATHLON 64 X2 6000+ :: M2N-E SLI moderkort :: 2 GB DDR2 677 Kingston :: 500GB :: XFX GeForce 8800GTS 640MB :: Vista premium 64bit

Permalänk
Medlem

Vart är Janne Josefsson när man behöver han?

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av NoCc
Mycket lättare att göra det från Bioshock än crysis t.ex tackvare att Crysis består av gigantiska utomhus-miljöer, medans bioshock är inomhus i trånga rum, kräver mycket mindre kraft

På vilket sätt menar du då? är ju lika mycket "grafik" vare sig du är utomhus eller inomhus, blir ju inte mindre grafik för du går in i ett rum än om du är utomhus

Visa signatur

[i7 8700K@5.4Ghz] [Asus GeForce RTX 2080 Dual OC][3500Mhz@Corsair RGB DDR4][MSI Z390 MEG ACE][Customloop][Sony AF9 65" Oled] [Predator X34A] [Dark Power Pro 1000W][Beyerdynamic 1990 pro] [Sound BlasterX AE-5] [Astro mixamp]{

benchmark http://www.3dmark.com/spy/7331357
8700k@5.4Ghz https://valid.x86.fr/2ff8a4

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av visenstam
På vilket sätt menar du då? är ju lika mycket "grafik" vare sig du är utomhus eller inomhus, blir ju inte mindre grafik för du går in i ett rum än om du är utomhus

Är du utomhus är det mycket mer polygoner, du har hundratals träd, buskar och gräs. Inomhus behövs det bara en bråkdel så mycket polygoner, om det inte utspelar sig i ett enormt växthus på ett par kvadratkilometers förstås

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ampariii
Jo det stödjer dualcore, det är det som bilden visar. Den använder 50% av kärna 0 och 50% av kärna 1 som jag visar på bilden.

Ja, det var väl inte speciellt effektivt? Startade upp UT3 som ÄR dual-core optimerat och där låg användningen på 70-90 procent per kärna:

Om någon kan ta sig tid och ta en liknande bild när de har spelat crysis så att vi kan komma till någon slags consensus om detta (jag själv inte det installerat då jag tog bort det för att jag tyckte att det var sådär, spelar timeshift istället )

Permalänk
Medlem

Bra skrivet. Storföretagens äckel makes me sick. Bara fulspel från alla håll nu för tiden...

Visa signatur

Om du svarar på mitt inlägg, citera, tack!

Permalänk
Medlem

Mindre miljö att rendera för grafikkortet tror jag han menar alltså högre fps för inomhusspel

Permalänk
Medlem

Vidrigt är ordet.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mr_krut
När dual core används så ska de ligga på 100% som denna bild visar
http://jamespaulp.files.wordpress.com/2006/12/cpuusage.JPG

För att dualcore ska användas behöver det absolut inte belastas till 100%, för att den ska användas på ett bra sätt så delas arbetet upp lika mellan kärnorna. På bilden jag visade så är det en stapel för kärna 0 och en för kärna 1. Som du ser så belastas de nästan lika, vilket betyder att Crysis iaf använder mina två kärnor. Det visar också, precis som xphaze säger, att Crysis är mycket gpu-beroende - det är grafikkortet som är flaskhalsen i de flesta systemen. Hade Crysis behövt mer processorkraft från min dator så hade den kunnat ta det.

Citat:

Ursprungligen inskrivet av Zuch
Ja, det var väl inte speciellt effektivt? Startade upp UT3 som ÄR dual-core optimerat och där låg användningen på 70-90 procent per kärna:

http://img106.imageshack.us/img106/4046/cpuusagesmallft8.png

Jag har inte sagt att det är så effektivt, men det utnyttjar båda kärnorna. Sedan är ju frågan om man skulle kunna avlasta gpu genom att låta processorn göra mer jobb - vilket säkert skulle vara bra för Crysis eftersomd et är grafikkorten som flaskar för de flesta.

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av ampariii
För att dualcore ska användas behöver det absolut inte belastas till 100%, för att den ska användas på ett bra sätt så delas arbetet upp lika mellan kärnorna. På bilden jag visade så är det en stapel för kärna 0 och en för kärna 1. Som du ser så belastas de nästan lika, vilket betyder att Crysis iaf använder mina två kärnor. Det visar också, precis som xphaze säger, att Crysis är mycket gpu-beroende - det är grafikkortet som är flaskhalsen i de flesta systemen. Hade Crysis behövt mer processorkraft från min dator så hade den kunnat ta det.

Kanske va otydligt i de jag skrev, självklart måste de inte ligga på 100% för att köras i dual men är de bra optimerat så ligger varje kärna på 100%. Som de är nu får du ut 50% av varje kärna, vilket ger den kraft för totalt en CPU, hade de varit bra optimerat hade du fått ut 100% och kraften för två CPUer. Det är ungefär som att jämföra RAM-minnen. 2*512(vad du får ut nu med 50%) är bättre än 1*1024(single CPU), men vad som är bättre än de är 2*2048(full support för dualcore och vad du egentligen ska få ut). Nu kanske du förstår vad de hela handlar om.

Visa signatur

You stink. Bender's great. Deal with it

Permalänk
Medlem

Nu börjar man ju undra igen.. q6600 eller E6850 hmm..

Permalänk
Medlem

Ni kan väl inte på allvar tro att Crytek har "låst" dx10-inställningarna för xp-användare? Tror ni att det är ett sofistikerat hack att ändra en variabel från 3 till 4 i en config?

Crytek har inte gömt ett dugg från er. Snarare gett er en väg runt de påtryckningar som sannolikt kommit från EA/Microsoft. Det är hur klart som helst att Crytek vet att gemene man kan fiffla runt i dessa configs.

Jag läste nånstans att det kostade i runda slängar 50 miljoner dollar att tillverka Crysis (har ingen källa på det men det är inte orimligt). Det kommer sannolikt inte att täckas helt av försäljning utan måste fås från andra håll. EA och Microsoft har sannolikt stått för den större delen av dessa pengar, i utbyte mot att deras produkter pluggas lite här och där.

Crytek är inte ute efter att sätta dit er så illa som möjligt så att deras plånböcker fylls till max. Möjligheterna att ändra dessa configs är tillräckligt med bevis för det.

Och förresten, att spel marknadsför sig med förrenderade videos och doktorerade screenshots är ju väldigt ovanligt i branschen annars, eller hur.

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av Ak47
Oblivion med alla extra grafik patchar är nästan snyggare,
och det flyter bra med.. d:

men kommer specielt ihåg Doom3 med min gamla burk..

AMD64 3000+
1gb ram
GF 5900XT

kunde lira skiten på ultra... utan problem.

Bildbevis isåfall... crysis har hästlängder bättre grafik än oblivion, och är samtidigt mycket bättre optimerat.

Permalänk

Tycker det är lite som mångas uppfattning med vista.
Så fort det inte är som man tror så är de soptunnan som gäller !!

//Peter

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Arzei
det är rätt innovativt med nanosuiten.

Själv så tyckte jag det bara kändes precis som i alla andra spel som man kan göra sig osynlig, springa snabbt, hoppa högt etc med hjälp av magier eller liknande. Inget nytt direkt som man inte har sett förut, men visst tillför den lite till spelupplevelsen.

Jag tyckte att spelet såg vrål snyggt ut på min dator och flöt på fint med low på nästan allt. Är mest imponerad av hur långt man kan se utan att det är så tok krävande som i oblivion. Fast min dator är nog lite "out of date".

Visa signatur

alla forumedlemmar skapar glädje.
vissa när de loggar in.
andra när de loggar ut.

Permalänk
Citat:

Ursprungligen inskrivet av xinom
Ni kan väl inte på allvar tro att Crytek har "låst" dx10-inställningarna för xp-användare? Tror ni att det är ett sofistikerat hack att ändra en variabel från 3 till 4 i en config?

Crytek har inte gömt ett dugg från er. Snarare gett er en väg runt de påtryckningar som sannolikt kommit från EA/Microsoft. Det är hur klart som helst att Crytek vet att gemene man kan fiffla runt i dessa configs.

Jag läste nånstans att det kostade i runda slängar 50 miljoner dollar att tillverka Crysis (har ingen källa på det men det är inte orimligt). Det kommer sannolikt inte att täckas helt av försäljning utan måste fås från andra håll. EA och Microsoft har sannolikt stått för den större delen av dessa pengar, i utbyte mot att deras produkter pluggas lite här och där.

Crytek är inte ute efter att sätta dit er så illa som möjligt så att deras plånböcker fylls till max. Möjligheterna att ändra dessa configs är tillräckligt med bevis för det.

Och förresten, att spel marknadsför sig med förrenderade videos och doktorerade screenshots är ju väldigt ovanligt i branschen annars, eller hur.

Bra spel bör inte ha problem att tjäna på försäljningen half-life såldes t.ex. i 8 miljoner exemplar jag vet inte riktigt vad spelen kostade då men säger man 300 kr så blir det ju 2,4 miljarder SEK.