Alla fyndtips från Amazon Spring Deal Days

Ny skärmteknik har 127 000 pixlar per tum

Permalänk
Melding Plague

Ny skärmteknik har 127 000 pixlar per tum

”Nano-PeLED” har pixlar på 90 nanometer.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

356K istället för 4K eller nåt

Permalänk
Medlem

Börjar bli vansinniga upplösningar på Led...
Bygger t.ex med 3.9mm mellan pixlarna på jobbet och det är ni alla nöjda med när ni är på konsert
Ibland till och med upp till P6.9 och 12mm...

Så för mig känns detta helt galet, hur ska vi orka driva det?

Visa signatur

Jag tar jobbet med mig hem, i form av Tinitus.

Permalänk
Medlem

Sa någon DLSS 9 med FrameGen 8?

Nej, så klart coolt att tekniken finns 😀

Visa signatur

Modermodem från ONOFF och bildskärmsutrustning från Electrolux. US Robotics 28.8K telefonuppringd internetförbindelse. Har en förkärlek för tysk tjejpop.

Permalänk
Medlem

Ush vad små programmen i Windows kommer bli ;p

Visa signatur

www.fckdrm.com - DRM år 2025? Ha pyttsan.

Permalänk
Hedersmedlem
Skrivet av Nbwu:

Börjar bli vansinniga upplösningar på Led...
Bygger t.ex med 3.9mm mellan pixlarna på jobbet och det är ni alla nöjda med när ni är på konsert
Ibland till och med upp till P6.9 och 12mm...

Så för mig känns detta helt galet, hur ska vi orka driva det?

Det relevanta där är ju totala antalet pixlar, inte storleken.
Vision Pro med sina 3386 pixlar/tum (31 ggr högre än 1440p 27" på 109) har 23 miljoner pixlar, mindre än två 5K-skärmar.
Har svårt att tro att detta skulle leda till skärmar med 1000 ggr fler pixlar bara för att den maximala pixeltätheten ökar.

Skulle tro att skärmarna du bygger har typ 2-10 PPI? Men de är ju inte 10-50 ggr lättare att driva än datorskärmar.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
NAS: 6700K/16GB/Debian+ZFS | Backup (offsite): 9600K/16GB/Debian+ZFS

Permalänk

Perovskit var intressant att läsa om. Jag hade tidigare hört talas om hundskit och kattskit, men inte perovskit.

Permalänk
Medlem
Skrivet av Powerbomb:

Perovskit var intressant att läsa om. Jag hade tidigare hört talas om hundskit och kattskit, men inte perovskit.

Haha, jag läste pervo, fnissade lite.

Visa signatur

Jag gillar att försöka odla tropiska växter från frön, i ett nordiskt klimat.
🌱 Min YouTube-kanal: https://www.youtube.com/c/NordicPlantLover 🌱

Permalänk
Medlem

Nu har jag glasögon så kommer väl säkert inte se någon överdriven skillnad mellan detta och microled om det kom i datorskärm.
Men blir ju säkert bra i VR headsets eller kamera ocular.

Permalänk
Medlem

Börjar bli dags för stora skärmar med riktigt hög upplösning.

Permalänk
99:e percentilen
Skrivet av Nbwu:

Börjar bli vansinniga upplösningar på Led...
Bygger t.ex med 3.9mm mellan pixlarna på jobbet och det är ni alla nöjda med när ni är på konsert
Ibland till och med upp till P6.9 och 12mm...

Så för mig känns detta helt galet, hur ska vi orka driva det?

Vi ska inte driva det. Vi ska skicka precis vilken upplösning vi vill till skärmen, och den ska återge den praktiskt taget helt perfekt utan några synliga skalningsartefakter.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av Alling:

Vi ska inte driva det. Vi ska skicka precis vilken upplösning vi vill till skärmen, och den ska återge den praktiskt taget helt perfekt utan några synliga skalningsartefakter.

Och hur ska vi göra det?

Visa signatur

A modest man is usually admired, if people ever hear of him.

Permalänk
Medlem
Skrivet av Alling:

Vi ska inte driva det. Vi ska skicka precis vilken upplösning vi vill till skärmen, och den ska återge den praktiskt taget helt perfekt utan några synliga skalningsartefakter.

Tänkte inte ens på den fördelen först!
Bara upp till de som tillverkar den att göra bra "algoritmer" då

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av Roger W:

Och hur ska vi göra det?

Precis som du gör idag när du skickat en signal som är 1080p till en skärm som är 4k, tex.
Bara det att du skickar en signal som är 4k till en skärm som är 896k

Visa signatur

CPU: R7 9800X3D | GPU: Asrock 7900XTX Taichi OC | MB: Asus B650E-I| RAM: 2x32 Kingston Fury @6000MHz CL30|Cooling:Noctua NH-D15 G2|PSU: Phanteks AMP GH 1000W|SSD: Kingston Fury Renegade 2TB + Corsair MP510 4TB |CASE:Streacom DA6 XL Chrome

Permalänk
Medlem
Skrivet av Nbwu:

Börjar bli vansinniga upplösningar på Led...
Bygger t.ex med 3.9mm mellan pixlarna på jobbet och det är ni alla nöjda med när ni är på konsert
Ibland till och med upp till P6.9 och 12mm...

Så för mig känns detta helt galet, hur ska vi orka driva det?

Ja precis, om man nu ska använda dessa super high-res skärmar så blir väldans tungdrivet med dagens teknik

Visa signatur

anti-fascist antiX Linux på en MacBook Pro late 2013, gammal slö Asus X202E, Nintedo Switch, gamla Huawei 20Pro

Intels fabrik på mark tagen av Israel

Permalänk
Medlem
Skrivet av Alling:

Vi ska inte driva det. Vi ska skicka precis vilken upplösning vi vill till skärmen, och den ska återge den praktiskt taget helt perfekt utan några synliga skalningsartefakter.

Detta är faktiskt revolutionerande... Man behöver inte längre ange native upplösning, utan ett spann på vad input klarar istället helt enkelt. Resten sköter skärmen.

Permalänk
Medlem
Skrivet av Nbwu:

Börjar bli vansinniga upplösningar på Led...
Bygger t.ex med 3.9mm mellan pixlarna på jobbet och det är ni alla nöjda med när ni är på konsert
Ibland till och med upp till P6.9 och 12mm...

Så för mig känns detta helt galet, hur ska vi orka driva det?

Tycker skärmarna är lite halvdana på konsert ibland, du kanske skulle kunna ta ner måttet till ~2mm så vi får prova

Permalänk
Moderator
Moderator

Kan bli riktigt bra för VR och liknande saker.
Pixelgaranti på dessa? Blir nog svårt att hitta trasiga hehe.

Visa signatur

*-<|:C-<-<

Nytt namn, samma bismak.

Permalänk
Medlem

Tror mångta inte förstår hur revolutionerande hög pixeldensitet faktiskt är.

En av de stora fördelarna CRT skärmar har över LCD och även OLED, är att de har perfekt skalning av upplösningar utan uppskalningsartefakter och med bibehållen bildskärpa, detta då en CRT inte är begränsad av pixlar.

Med tillräckligt små pixlar och hög densitet så kan vi faktiskt börja emulera precisionen av elektronstrålarna i en CRT, för att skala valfria upplösningar utan synliga artefakter. 1080p blir lika skarpt som 4k.

Visa signatur

| Corsair Obsidian 500D | Intel Core i7-3770K 3.9GHz med Corsair iCUE H115i Elite Capellix XT | Asus Z77 Sabertooth | Corsair Vengeance Pro Black 4x8GB 1866MHz CL9 | 2x EVGA GeForce GTX TITAN X 12GB, SLI | X-Fi Titanium Fatal1ty Pro | Samsung 870 EVO 2TB, Samsung 870 EVO 1TB, 2x Seagate Barracuda 2TB | Corsair AX860i | PG279Q | Windows XP/10 Dual-Boot |

Permalänk
Medlem
Skrivet av Lonian:

Nu har jag glasögon så kommer väl säkert inte se någon överdriven skillnad mellan detta och microled om det kom i datorskärm.
Men blir ju säkert bra i VR headsets eller kamera ocular.

MicroLED finns inte ens till datorskärmar och kanske aldrig kommer göra det heller så du behöver inte oroa dig över om du kommer kunna se skillnad eller inte än på ett bra tag 😉

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 9070 XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem
Skrivet av Thomas:

Skulle tro att skärmarna du bygger har typ 2-10 PPI? Men de är ju inte 10-50 ggr lättare att driva än datorskärmar.

Nej precis, vi driver närmaste standardupplösn ing som är större, så är skärmen fysiskt 3200*1900px blir det en 3840*2160p med lite pixlar som inte syns.

Skrivet av Alling:

Vi ska inte driva det. Vi ska skicka precis vilken upplösning vi vill till skärmen, och den ska återge den praktiskt taget helt perfekt utan några synliga skalningsartefakter.

Men nånstans måste den drivas, vist GPUn i datorn kanske inte behöver hantera pixelmängden, men någonstans måste det konverteras från bilddata/Hdmi/DP/Framtidainterface till pixeldata, och den processionen blir ganska tungroddad med fler pixlar.

Skrivet av Tommy:

Tycker skärmarna är lite halvdana på konsert ibland, du kanske skulle kunna ta ner måttet till ~2mm så vi får prova

Har tillgång till P1.24, men 10m bred blir strax över 5000px på bredden, lite småjobbigt att arbeta med...
Motsvarande (10m) P6.9 är "bara" 1420px

Visa signatur

Jag tar jobbet med mig hem, i form av Tinitus.

Permalänk
Hedersmedlem
Skrivet av Alling:

Vi ska inte driva det. Vi ska skicka precis vilken upplösning vi vill till skärmen, och den ska återge den praktiskt taget helt perfekt utan några synliga skalningsartefakter.

Kontrollerkretsen för den skärmen med en fantasiljon pixlar tho ;).

Visa signatur

🎮 → Node 304 • Ryzen 7 5700X3D • Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Bildexpert 📺

Två saker som alltid kommer upp när skärmar och upplösningar diskuteras:

(1) Man blandar ihop kravet på GPU med display. Kravet för att driva ett spel i en viss upplösning blandas ihop med vad som krävs för att använda en skärm med nämnda panelupplösning. Det är två olika saker vilka delvis men inte nödvändigtvis överlappar. Ju högre upplösning på displayen, desto mindre överlappning med kraven på GPU.

Året är inte 2005 då vi fortfarande måste tänka i termer av 1:1 förhållande mellan grafikminne och pixlar på displayen.

(2) vissa CRT:er var bra för sin tid men de var sällan magiska. En modern faktoid om CRT är den oändliga och perfekta skärpan. Till stor del baserat på nostalgi, survivorship bias samt att man blandar ihop teorin med praktiken. Ett bildrör har en praktisk gräns för när det inte blir skarpare eller högre upplösning. Man kan kanske enklast beskriva det som en frekvensavrullning när katodstråle och fosformaskning inte länge kan upplösa mer detaljer och individuella pixlar utan allt smetar ihop i samma gaussiska töcken.

På en typisk 17-tummare från sent 90-tal börjar den frekvensavrullning på motsvarande någonstans 1024x768 till 1280x800. Många skärmar var sämre än så. De modellerna är ofta skrotade, kasserade och bortglömda sedan många år tillbaka. Fanns en del CRT som var betydligt bättre och dessa har överlevt till idag för att det var kvalitetsbyggen från början, säg en professionell monitor som i dagens pengabelopp kostade 50+ kkr.

Man enkelt testa detta med ett multiburst-testmönster för att se när frekvensavrullningen börjar. Det ska vara riktigt bra och välmående CRT:er för att lyckas nå 1920x1080 utan avrullning. Så man kan mycket väl driva en CRT med 1920x1080 eller något i stil med 2048x1536 från sin GPU och tro att man har oändlig upplösning. Många som har gjort det genom decennierna.

När man synar bilden är tydligt att så inte är fallet, bilden blir inte skarpare, den blir mest mjukare.

Ifall ni undrar vad jag menar ska testbilden längst till höger i bild vara distinkta kolumner av varannan vit och varannan svart pixel när en skärm kan återge hela bildsignalen utan frekvensavrullning. Inga som helst problem på en korrekt använd modern display med fast pixelmatris så länge man kör 1:1. Och en stor utmaning för den typiska (och idag borglömda) genomsnitts-CRT:n när man börjar komma till dagens lägstanivåer om 1920x1080 pixlar.

Permalänk
Medlem
Skrivet av dlq84:

Detta är faktiskt revolutionerande... Man behöver inte längre ange native upplösning, utan ett spann på vad input klarar istället helt enkelt. Resten sköter skärmen.

CRT med andra ord?

Visa signatur

Project AI (där fritiden inte räckt till...) | i7-14700 | Nvidia RTX A6000 | Vardagsrumsdator I | Casemoddat NR200P Sakura Limited Ed. SFF | Ryzen 5900X | ROG Strix 3080 White | ROG Crosshair VIII Impact X570 mini-DTX | CM SFX Gold 850W White | Kraken Z68 White AIO | Sennheiser HD 800 genom Aune X1S DAC + Onkyo A/V Receiver | LG OLED 77"| Vardagsrumsdator II | Casemoddat Lian Li O11 med optical-bonded transparent LCD i sidopanel och frontglas | i7-14700F | RTX 4070 | Thermalright FN240 AIO | LG OLED 42" | Macbook Pro 14" M1 Pro | Surface Pro i7 |

Permalänk
Medlem
Skrivet av Nbwu:

Men nånstans måste den drivas, vist GPUn i datorn kanske inte behöver hantera pixelmängden, men någonstans måste det konverteras från bilddata/Hdmi/DP/Framtidainterface till pixeldata, och den processionen blir ganska tungroddad med fler pixlar.

Jag tänker mig att man grupperar pixlarna inte inte står de individuellt.

Så även om det är 127k pixlar per tum så är de grupperade till mer hanterbara nivåer.

Permalänk
Medlem
Skrivet av Nyhet:

Den nya tekniken bygger på användningen av perovskit, en form av kalciumtitanoxid som hittills främst är känt för sin användning i moderna solpaneler med betydligt högre verkningsgrad än äldre tekniker

I stort sett alla kommersiellt producerade solpaneler idag baseras på kisel. Perovskitpaneler har precis börjat produceras kommersiellt, men inget som än så länge kan mäta sig med den enorma kiselbaserade produktionsbasen. Dessutom kvarstår frågor om perovskitpanelers tålighet/livslängd, då det i labbtester varit dess akilleshäl.

Permalänk
Bildexpert 📺
Skrivet av Söderbäck:

Kontrollerkretsen för den skärmen med en fantasiljon pixlar tho ;).

Man kör plural och fördelar ett flertal kretsar över ytan som tar hand om varsin del, precis som det i många skärmar idag är två (billigare) kretsar som tar varsin halva då det kan vara ekonomiskt försvarbart att ta två enklare än enda ensam fast mer kapabel (dyrare) krets.

Andra sätt att lösa det på är att pixlar i kvantitet kan omvandlas till kvalitet, särskilt när man är så här långt under ögats förmåga att urskilja något. Genom olika dither-metoder för att genom halvtonsmönster kan man uppnå högre bitdjup utan särskilt krävande processning. Då kan man nå höga färgdjup även om själva panelen endast är on/off i hur individuella pixlar kan tändas. Vilket kan öppna för enklare tillverkning.

Döda pixlar är också ett problem som verkligen kvantifieras bort här.

Gäller att släppa det där 1:1-tänkandet så öppnar sig möjligheterna.

Permalänk
Medlem

Undrade först vad poängen är med att gå ända ner till 90nm, men 127000 pixlar per tum är 200nm per pixel. Så antar att det är rätt mycket tomrum mellan pixlarna, där avståndet är ca dubbelt så stort som diametern på pixlarna.

200nm är väl ungefär gränsen som överhuvudtaget kan ses med mikroskop i synligt ljus. Fysikens lagar börjar sätta stopp och det är inte ens en fråga om vad vi hittar för användningsområden i framtiden.

Permalänk
Medlem

står det något om den extrema kylningen som troligen behövs för att kyla den??... jag har väldigt svårt att tro en "vanlig" 55''+ tv med denna tekniken inte behöver en exotisk kylning såvida dom inte kör med 99% avstängda pixlar för att minska värmen och kanske öka livslängden

Visa signatur

"Resistance is futile."

- Georg Ohm

Permalänk
Medlem

Jag läste pervoskit och hann tänka att det inte vore första gången porrbranschen drivit utvecklingen av teknologi framåt