Doomsayer

Doomsayer

Gépigény/telenség

Link másolása
Mi van akkor, ha játszani szeretnénk, de gép kéne hozzá?

A napokban több olyan kommentet olvasok mindenféle játékok gépigényére reakciónak, hogy komolyan kapaszkodni kell a karfába, nehogy elrepüljek a lendülettől. De nincs kedvem intrót írni, úgyhogy közhely: ezzel kapcsolatban született bennem néhány gondolat, amit gondoltam leírok, hátha valami.

hC5D6CD77

Elsőnek talán itt vannak az ilyen minimum-recommended táblázatok, amiket kiadnak a játékokhoz és sokan a fejüket fogják tőlük, meg bosszankodnak rajtuk. Egyébként ezek is átmentek egy evolúción a kedvünkért (vagyis egyesek kedvéért), mivel már szó szerint 4-5 különböző felbontás/fps/minőség beállításhoz vannak írva alkatrészek a legújabb és legdrágább holmiktól a 6-7 éves cuccokig bezárólag. Itt azt érdemes elsőként látni, hogy nincs egy iparági standard és nincs egy törvényben lefektetett módja az ilyesmi mérésének és megadásának, mint pl az autóknál a kipufogógáz mérésnél. A kiadott gépigényt minden készítő úgy kezeli, ahogy éppen gondolja, vagy rosszabb esetben belebeszél még a kiadó is. De az már nagyon-nagyon ronda egy dolog. Minden esetre lehet olyan is az aktuális hozzáállás, hogy azt mondja a minimumnál, hogy „nem azt mondtam, hogy menni fog, hanem azt, hogy elindul rajta, lol”. Vagyis máshogy megfogalmazva akár azt is jelentheti, hogy 720p + low + 25 fps + néha crash.

bestlookingguyhere.jpg

Más esetben, meg (mondjuk anno az Oculus Rift) azt is mondhatja a gyártó/kiadó, hogy azt akarja, hogy ha valaki az általa előírt minimumot eléri, annak egy alapvetően gondmentes és jó élménye legyen. Ránézünk a képekre/videókra és azt mondjuk, hogy „ehhez” kellene egy ilyen gép? Aztán lehet, hogy a szóban forgó anyag készítői úgy gondolták, hogy 1080p + medium low beállítások, de mondjuk csak 1% minimum a 30 fps és tényleg a legkisebb gond, vagy akadás sem lesz a játékkal, beleértve még a vállalható töltési időket is. Ez az a rész, amit mi nem tudunk egy táblázat alapján megállapítani. Másrészt, meg sokszor, ha valami alkalmazható technika támogatása szükséges a játékhoz, akkor nem is az aktuális minimum hardvert írják ki, hanem valamit, ami abból a korszakból való és már – vagy attól kezdve tudja azt a hardver. Mondjuk kell a játéknak Hardware Texturing and Lighting és megadja minimumnak a Riva TNT2-t, mert az már támogatja a Hardware T&L-t. De a játék ettől még 6600GT és Radeon X700 Pro alatt akadozik. Vagy odaírja, hogy minimum a Geforce 4 series graphics card, de kell neki Geforce 4 Titanium 4200/4600, miközben a Geforce 4 MX 440-en akadozni fog. (És akadozni is fog rajta, mert az csupán egy Geforce 2 MX, csak 180 nm helyett 150 nm-en gyártva.) Persze ezek most félig sem aktuális példák, de csak a szemléltetés volt a cél. Vegyük úgy, mint amikor azt írják, hogy DirectX 11 graphics card.

71O3pb49OwL.jpg

Továbbra is azoknál a gépigény táblázatoknál időzvén, amik több külön fps, beállítás és felbontás kombinációhoz adnak infót, a fentebb említetteken kívül van más is, amin sokan ki szoktak térni a hitükből. Az egyik fajta jellemző dolog az, amikor azt mondja a polgár, hogy „mi az, hogy AMD-ből minimum/recommended Ryzen 3 kell, intelből meg i7 – füj micsoda hülyeség?!” Ez megint egy, a szemléltetés miatt szándékosan sarkított példával illusztrálható. Kellhet a képzeletbeli játékunknak a processzor részen egy alsó kategóriás Ryzen 3 1200 (4 magos,4 szálas) CPU, míg intelből meg ott virít egy i7-2700K (4 magos, 8 szálas) felső kategóriás proci. Ilyenkor nem csak azt érdemes látni, hogy R3 vs i7, hanem a hátteret is. A szóban forgó i7 egy kifejezetten acélos proceszor 2011-ből. 32 nm-es csíkkal készült, 64 KB L1, 256 KB L2 és 8 MB L3 a cache és jó kis DDR3 1333-as platformon szalad. Emellett az említett Ryzen 3 egy 14 nm-es, 96 KB L1, 512 KB L2 és 8 MB L3 cache-el ellátott DDR4 2666-os processzor 2017-ből. Itt azért már látszhat a különbség, hogy vajon miért kerülnek azonos szintre egy ilyen táblázatban, de a lényeg annyi, hogy egy újabb és modernebb, alsó polcos tech tud gyorsabb, vagy ugyan olyan gyors lenni, mint egy korábbi csúcs alkatrész. Ugyan úgy mint az autóknál is esetleg könnyebben elképzelhető. Legyen neked egy jó kis 20 éves E46-os 320i BMW-d, ami 6 hengeres és igen jó - ha mondjuk gyorsulásban ma már lehagyja valami 3 hengeres tavalyi hawai turbóSUV. (Itt egyébként sem a BMW, sem a 3 hengeres turbóSUV tulajokat nem szeretném sérteni, csak egy példa volt és lehetett volna más is.)

0*z6DBs7FzNFcMLWiU

A túl komplex táblázatok láttán pedig a másik buktató, amikor valaki az általa még nem használt, vagy nem ismert dolgokról/hardverekről/technológiákról csak képzelettel és személyes véleménnyel, de nem egy gyakorlati ismerettel rendelkezik. Ami gyorsan hozzáteszem, hogy nem baj és nyilván nem is kötelező mindenkinek mérnöki szinten minden kacathoz érteni. Én sem értek semmihez, főleg akkor nem, amikor csak le akarok ülni játszani, azt megnyomom a gombot és jól akarok szórakozni. Itt egy példa erre az esetre, de semmiképp sem egy örök érvényű vitát szeretnék újra éleszteni, hanem ez egyszerűen csak egy jó példa: a GTA5 vs Cyberpunk 2077 város kérdése. Hogy a GTA5 futott aránylag rendesen PS3-on és Xbox 360-on is (~PS360), de a 2077 még PS4-en és Xbox One-on sem, pedig aztán mind a két játék városos. Amíg az előző elmegy HDD-n, addig a másiknak már a felépítésénél és később tárgyalt dolgoknál fogva bizony SSD kéne. (Az egy igaz dolog, hogy akkor nem kellett volna így kiadni és reklámozni.) De a példánknál maradva, csak azért, mert mind a kettő városos, még határozottan nem kellene akkor ugyan úgy futni mindkettőnek egy PS360-on.

ps360_ds3_1.jpg

Vagy másik példa a jelenségre. Játszik az ember gyári Ultra preset grafikával a The VideoGame™ első részével és jó 55-60 fps van neki 2060 Super-rel. Aztán megjelenik a The VideoGame II.™. Ugyan az a motor is, meg egy asset flip is az egész és ugyan úgy is néz ki majdnem, csak éppen a második részben mindenből kicsit több, nagyobb, színesebb és jobb illatú dolog van. Meg mondjuk egy kis Ray Tracing Ambient Occlusion és ez a beállítás is be van kapcsolva a gyári Ultra preset alatt. Aztán akkor fogja magát a játék és majd csak 30 fps lesz ugyan azon a gépen, és az user panaszkodik, hogy nem tudnak optimalizálni meg hogy le vannak fizetve, hogy eladják az új hardvert. Akkor megnézi a youtube videót, ahol mutatják, hogy az RTAO miatt picirit jobban néz ki a könyvespolc is meg a fűcsomó széle is de ez annyira mindegy a playernek (akár jogosan), hogy egyből elkönyveli az egész sugárkövetés technológiát hulladéknak és kiakad a játék gépigényén. Meg persze hirdeti, hogy ő nem lát különbséget, vagy még rosszabb, hogy konkrétan nincs is különbség. És mondjuk közben nem veszi figyelembe, hogy most már 20 perc helyett 30 perc alatt bejárhatók a pályák, több emeletesek a házak és zombiból 3 helyett, akár 7 is lehet egyszerre a képernyőn. Meg ugye több az a könyvespolc és fűcsomó is és mindez akkor is így van, ha kikapcsolja az RTAO-t.

2-65.jpg

Így van az, hogy ha bizonyos dolgokat nem veszünk figyelembe, akkor elindulhatunk egy olyan úton, ami idővel ahhoz vezet, hogy idegeskedünk a gépigény táblázatokon. Rosszabb eset ennél, amikor saját egyéni és/vagy érzelmi dolgainkat keverünk a gépigénybe. Pl ilyenek, hogy sajnos nem vagyunk milliomosok és csak mostanra sikerült összegyűjtenünk a család mellett becsületes munkával egy most sem olcsó 3070-es kártyára. Nagy az öröm, komoly a masina, de megvette tegnap a kártyát, holnap pedig kijön egy gépigény, hogy 1080p medium 30 fps-hez pont 3070 kell. Bumm, megy is a mérgelődés. De ebben benne van az is, hogy mennyit kellett küzdeni és dolgozni azért a kártyáért, ami a karakterünk szerint egy bitang jó cucc... Erre rögtön másnap meg leteszik a kisfelbontás-nullfps polcra. De egy RTX 3070 amúgy egy most 3 éves kártya, ami új korában is középkategóriás volt már eleve. És itt kössünk is át az egyik legnagyobb és legjobban elfelejtett, illetve egyáltalán nem figyelembe vett dologhoz, ami nem más, mint a felbontás.

fb70360b9a7d672b2b5511075aeb9509.jpg

A felbontást nagyon sokan szeretik elfelejteni és nem veszik figyelembe azt sem, hogy melyik időszakban milyen felbontásban mentek a játékok. Itt vagyunk, hogy az említett 2070Ti-2080-3070-es időszakban általában véve 1440p monitorokat használtak a PC-sek, de volt még sok játékos, aki 1080p-ben nyomta. És hogyan futtatta a játékokat a 2080-3070-es anno? 1440p + DLSS quality, ami nem más, mint 1080p. Persze, vagy 10 éve mindenre rá van írva, hogy 4K, meg hogy VR Ready, de az ám a nagy büdös helyzet, hogy... ja, végül is 4K... ready...?? Simán elfut a Quake 2 4K-ban, meg azért hasít a mai kártyákon a Duke Nukem 3D-is 4K 120-al. Köszönjük szépen, de az a helyzet, hogy sem a mai, sem a tegnapi játékok nem mennek még a mostani jó cuccokon sem 4K-ban. Nem azt mondom, hogy egy szem sem, de sem a konzolok, sem a PC-k nem futtatnak kábé semmit sem natív 4K-ban. A DLSS/FSR Quality a 4K esetén szépen 1440p, a Balanced 1080p és a Performance pedig kő keményen egy szilaj 720p-s kép rekonstrukciója. Márint 1280x720 → 3840x2160 a DLSS Performance...

deliver-us-the-moon-nvidia-dlss-2-0-performance-boost.png

Tehát valójában a felbontás a baj, meg az, hogy a piac alappá meg menővé meg divattá tette a 4K TV-t meg monitort. Mint a sok megapixeles és emellett is homályos képet lövő kamerákat, meg a 21 collos kerekeket, amiknél a kocsi rugózása az úthengerével vetekszik meg összetörik a felni az első csatornafedélnél. 4K lobbi, 8K lobbi, stb lobbi. Felbontás sztori? Volt régen a VGA felbontás, ami 640x480 és ma úgy hívnák, hogy 480p. A DVD filmek felbontása meg 720x480 csak nem progresszív, hanem interlaced. (Az a különbség, hogy a progresszívnél minden képkockában minden egyes vízszintes vonal frissül, addig az interlaced-nél csak minden második frissül frame-enként.) Mindegy, a DVD tehát 480i. A Super VGA (SVGA) volt 800x600 és amikor a 4:3-as képarányt váltotta a 16:9-es, akkor lett behozva a 960x540-es felbontás. Ismerős? Nem? Akinek ismerős, annak azért lehet az, mert a Full HD 1080p-nek (1920x1080) úgymond fele az az 540p. Megemlítem itt a közbenső, HD-nek (High Definition-nek) nevezett 1280x720-at, ami egy ideig pörgött, mint varázsszó.

resolutions_1200.png

Itt érdemes megállni egy szóra. Az, hogy a 960x540 pont a fele az 1920x1080-nak, az egészen addig tök logikus, amíg ki nem számoljuk, hogy pont az egynegyede. Ugye itt képpontokról beszélünk és az X pedig a szorzásnak egy régies, a pont előtt használt jele. Ha összeszorzod, akkor pedig négyszer annyi jön ki, lévén a felbontás leírása a vízszintes és függőleges képpontok számának a szorzatával van megadva. Említést teszek a „kedvenc felbontásomról”, a WQHD 1440p-ről, aminél a most tárgyaltaknak köszönhetően érthető lehet, hogy a HD 720p „duplája”, azaz kvázi négyszerese és ez benne is van a nevében, mert úgy hívják, hogy Wide Quad High Definition 2560x1440 progresszív felbontás. És ezek után elérkezünk (egy ugrással) a 4K-hoz, ami 2160p. Ugye már ki is találta mindenki, hogy ez a Full HD 1080p-nek nem duplája, hanem a négyszerese.

resolution-comparison-8k.jpg

Nekem nagyon sokáig volt GTX 1070-es videokártyám. Egy 32”-os 1080p-s TV-n toltam és az elejétől a végéig egy nagyon erős és jó kártya volt, amit nem volt értelme lecserélni. Aztán a régi TFT TV helyett már szebb képet adott egy IPS monitor. Így lett az, hogy méretnövelés nélkül, ugyan így 32”-ban, de egy 1440p-s monitort vettem. Na itt volt a vége az 1070-esnek. Az így fellépő pixelszám növeléssel ugyan azok a játékok, amik rendszerint rottyon mentek az 1070-essel, szépen beleálltak a földbe 1440p-ben. Éppen a Fallen Order-rel játszottam és a többedik pályát még a TV-n kezdtem, de ahogy megjött a monitor és jelentősen szebb lett a színvilág, úgy jött be a horror akadozás is. Ugye az 1080p-nek a 177%-a az 1440p. Nem is fogtam fel akkor, hogy majdnem megdupláztam a felbontást és az kényszerítette térdre a kártyámat. És innentől minden folyamatban lévő és új játék rosszul futott. Az LCD – folyadékkristályos tech tulajdonsága, hogy a CRT – katódsugárcsöves megoldásával ellentétben, csak az a kép a rendesen éles és referencián belüli minőségű, ami natív felbontásban van. Tehát az 1440p-s monitoron homályos lesz minden az alatti felbontás. Ezért nem tudtam az 1070-est tovább használni az 1440p monitoron, mert az egy 1080p kártya volt és abban a felbontásban rossz volt a kép, de a szép képpel viszont simán akadozott minden játék, ami addig fix 60 volt. Így voltam kénytelen megvenni az RTX 2080-ast. Alapból a kategóriám a 2070 lett volna, csak előrébb akartam lépni – nem is tudván, hogy ez is gondot fog okozni később, ahogy egyre több grafikát kapcsolgattam magas minőségre.

352-1612032654-188468447.png

Tudom, hogy ez már sok félrebeszélés volt, de vajon sikerült rávilágítanom, hogy hiába lehet ugyan olyan a grafika, ha elfelejtjük, hogy régen HD-ben, aztán utána Full HD-ben, később meg 4K-ban toltuk a játékokat? A gépünknek egy adott a játékot 720p-ben egyszer kell csak megmozgatnia, de 1080p-ben már annak a 225%-a jelentkezik a gépigényben. Míg az 1080p-ben futtatott játékból kvázi 4 db-ot kell egy időben futtatnia ugyan annak a gépnek, ha 4K-ban akarjuk nézni. És mi ugye abban akarjuk, nehogy homályos legyen a kép. Ezen a ponton jön be a következő evolúció(?) a DRS. A Dynamic Resolution Scaling nem más, mint az ismert rövidítéseken az nvidia-féle DLSS, az AMD-féle FSR és az Intel-féle XeSS (illetve az Unreal Engine 5 saját temporal alapú megoldása a TSR). Ez az, amikor a 4K-s kép konzolokon és PC-ken 720p és 1440p közötti renderelés után lesz felskálázva 4K-ra. Jó sztori, de nem csak a 720p és 4K közötti különbség pontosan kilencszeres, hanem az eltelt időben azért a hardver is lett kilencszer gyorsabb, nem?

4k-upscaler.jpg

Hát igen, végül is lett, de amúgy logikailag, ha az akkori géphez képest a mostani gép kilencszer gyorsabb és a felbontás meg kilencszer nagyobb és a látvány ugyan olyan, akkor végül is nem fejlődtünk semmit, nem? Max csak gépigényben. Mint pl az RTX 3080 és az RTX 4080 között. Átlagosan 50%-al gyorsabb, 50%-al több áramot fogyaszt és 50%-al drágább is az a 4080 a 3080-hoz képest. Akkor végül is fejlődött...? De igazából nem fejlődött...? Csak 50%-al több. És ha a 3080-on használt DLSS Performance-ot átnyomod az új kártya miatt DLSS Quality-re, már jó eséllyel el is vesztetted az 50% erőfölény jó részét a felbontáson. Most nyilván ez nem húzható rá univerzálisan az egész iparra, de rávilágít, hogy a régi és újabb játékok gépigénye között nagyon nem szabad elfelejteni a felbontást sem. A másik, amit meg nem szabad elfelejteni, az az, ami meg ebből jön, hogy végül is a válasz az, hogy IGEN, fejlődtünk. De ezt a fejlődést vagy nem értik sokan, vagy konkrétan tagadják, vagy nem akarják érteni. Vagy trollok.

55a9b078a177f.jpeg

Persze mindenki mentségére legyen mondva, hogy amikor pl a Jedi Outcast-ben a mezőn 3D-s fűcsomók voltak... vagyis igazából nem voltak 3D-sek, hanem úgymond a 3D-s játékban több, különálló (bár ugyan olyan) fűcsomó volt, ami térbeli hatást keltett, az jobban feltűnő volt a Quake 3 grafika után. Aztán mondjuk a következő játékban már sokkal több fűcsomó volt, meg 3-4 különböző fűcsomó fajta is, de azt már csak kevésbé vettük észre, pedig jobban terhelte a gépet. És a végén, amikor már a valóságnál is szebb és jobb a növényzet, most már képesek vagyunk rámondani, hogy semmit nem fejlődött itt semmi, csak a gépigény. Ebbe az irányba szerettem volna kanyarodni a végére, hogy van már nagyon sok dolog, amit nem veszünk észre megszokás, vagy bármi más dolog miatt és ezek után mégiscsak a gépigényt, vagy a fejlesztőket hibáztatjuk. Most pont volt szó a kommentek között, hogy de a Last of Us 2 széjjelveri a mostani játékokat látványban és nincs olyan gépigénye sem. Most lehetne itt a Last of Us 2-n kívül bármi más is, de akkor nézzük ezt, mert tényleg nagyon szép a játék és tényleg kis gépen is jól ment.

3685284-tlou15.jpeg

A játékban van egy fix napszak, a nap fix helyen áll az égen és minden statikus. Ahogy a külső, úgy a belső terek is statikusak és úgy lettek megalkotva, hogy abban az időpillanatban, amikor a jelenet zajlódik, nagyon gyönyörű legyen minden. A falra szerelt neon megvilágítja a faház falát és az ablakon beszűrődik a felhők mögé bújó nap által szürkére festett fény, ami ezáltal szürkés árnyalatot és szürkés árnyékokat vet a berendezésre. Szerfelett szép, valóban. De ez a látvány a maga szépsége mellett nem egy olyan grafika, amit számolnia kell a gépnek, mert ez csak úgy van. A játék fejlesztése közben ők benyomatták a legkomolyabb ray tracing minden verzióját arra a helyre és a tetejére még a real time path tracing global illumination-t is. Aztán szépen megnézték, hogy milyen a kinézet és elkezdtek textúrákat rajzolni. Beállították a napszakot, majd bementek a házba és csináltak egy képet, arról, ahol a falra csavarozott neon megvilágítja a faház falát. Utána pedig egy neonfényben úszó színű statikus textúrát. Ha a játékban tehát kilőnéd a neont, akkor a fénye ugyan úgy ott maradna a falon … de ugye senki nem gondolta, hogy ki lehet lőni a neont? A szürkés fénnyel világított berendezés ugyan így csak textúra, ahogy a szürkés statikus árnyék is ugyan így csak trükk. Ez nem azt jelenti, hogy rossz a tech, vagy hogy ronda a játék, vagy hogy kevés a játék, mert jó a tech, nagyon igényes és nagyon gyönyörű a játék és le a kalappal előtte minden téren. De itt semmit nem kell a gépnek számolni.

TLOU-7.jpg


De mi van akkor, ha eljutunk egy mondjuk Witcher 3-ig, ahol bármilyen napszakban és időjárásban odaérhetünk bármelyik külső, vagy belső helyszínre? A fő küldetések videói ezen körülmények között és az éppen kedvünk szerint viselt fegyvereink és ruháink szereplésével mennek le, még azt is fegyelembe véve, hogy koszos, vizes, vagy véres a fickó. Beszűrődhet az ablakon egy verővényes napsütés a fák lombjai között és az alapján vethet árnyékot az egyik szereplő által az asztalra tett pohár. Vagy ugyan ez éjjel, egy vihar közben, amikor mindenki vizes és a villámlástól villog a szoba, ahogy átszűrődik a fény a szél által tépett mozgó növényzeten - és az alapján vet egy, vagy akár több mozgó árnyékot a pohár. És akkor ezt még csak nem is real time ray tracing segítségével, hanem ezt is a trükkök százai féle raszterizálással... Szerintetek melyiknek kell jobb gép? Mert itt van az, hogy minél élethűbb egy játék grafikája, annál alapabbnak és szóra sem érdemesebbnek gondoljuk a dolgot. Erre meg rájön az, hogy elfelejtjük, hogy a régi játékot négyszer-hatszor kisebb felbontásban játszottuk, hiszen az említett TLoU2 és a Witcher 3 is max(!) 1080p 30 fps volt konzolon. Aztán kijönnek az emelt minőségű remasterek és szétporlad tőlük a gépünk a négyszeres felbontás és dupla framerate 4K 60-ban, mi meg anyázzuk a fejlesztőt... És megfűszerezzük még azzal is, hogy milyennek maradt meg az emlékezetünkben. Én emlékszem még arra is PS1-ről, hogy a Metal Gear Solid-ban, milyen képet vág Snake, amikor [nem spoilerezek] történik. Jó szori, csak nincs is arca a Snake-nek a Metal Gear Solid 1-ben PS-en. Erről beszélek.

MGS1-Snake-Cheating-Death.jpg

A korábbi játékokban sem tesszeláció, sem ray tracing, sem egy rakás hasonló dolog nem volt, ahogy az adott korokban töredék volt a felbontás is és a játékok készítéséhez használt motorok sem ilyenek voltak. Sokat kellett trükközni és dizájn szinten kellett úgy dolgozni, hogy ne kelljen gépigényes dolgokat csinálnia a játéknak. Más volt a növényzet és más volt a növényzet árnyéka is. Annak idején örültél a fűnek is, mert új volt, most meg szétkritizáljuk a fűszálak szélén lévő árnyalást, mert az egész SSAO sokkal rosszabb, mint a HD és HBAO, de azért látjuk, hogy a legjobb az RTAO. Annak idején hokialapanyag volt Lara Croft piramis alakú melle, most meg egyesével fújja a haját a szél. Annak idején komoly volt, hogy a farkas nem egy egyszínű barna textúrával volt, hanem valami kisfelbontású szőr volt rá rajzolva, most meg fizikai alapon hullámzik mozgás közben szálanként a bundája. Annak idején arca sem volt a karaktereknek, most meg az egyesével kidolgozott szakállának, meg a szempilláinak a szálai is árnyékot vetnek az érdes bőrére. Ma már élőben jobb minőségű és felbontású képet számol több fps-sel a gépünk, mint annak idején a világot megrengető Terminator 2 filmben a T1000-es jeleneteinél a renderfarmok napok(!) alatt képkockánként(!!!)... De ha valaki azt mondja, hogy ehhez jobb gép kéne 4K-ban - ameddig még valójában el sem jutottunk játszható felbontás tekintetében - akkor meg kiabálunk, hogy semmi sem változott, csak a gépigény nőtt.

2.
2.
Doomsayer
#1: Köszi.

"Annyit megjegyeznék hogy"

HD Ready tényleg XDDD.
Így van és nincsen egy deka kétségem sem afelől, hogy ha újra a felbontást találnák ki varázsszónak, képesek lennének újra egy hatalmas nagy keveredést csinálni. A HD vs Full HD átmenet idején sok megkevert emberre, akik nem voltak betűre pontosan naprakészek és a jobbat akarták venni hosszú távra, a hatalmas arany színű matricákkal rásózták a gyengébbet.

Amúgy nézd meg, a mai napig árulják ezeket:

orion-hd-ready-led-tv-monitor-1-db-normal.jpeg

Pedig 30 körül már 27"-os 1080p LED paneleket dobálnak helyenként és még abban sem vagyok biztos, hogy manapság nem-e számít ez drágának. A fentiről meg izé.
1.
1.
delphijos
Jó kis írás lett.Sokan nem gondolnak bele ebbe, sokkal könnyebb MINDENRE rögtön ráhúzni hogy "optimalizálatlan szar", vagy "ugyanolyan mint 10 éve" Persze, nem mondom hogy a probléma nincs jelen -túl sokszor is- de azért nem mindíg ez a hiba... Én 3D-ztem még Amigával ( Imagine-el kezdtem ) és volt hogy egy-két napig számolt egy képet ha RT, tükröződés, és fénytörés be volt kapcsolva... ( A Babylon 5 CGI-jét 24 Amiga 2000 számolta hálózatba kacsolva, és 45 perc volt egy képkocka ) Azért meszzire jutottunk...és hol a vége...nem is látjuk.

Annyit megjegyeznék hogy a 720x480 az az NTSC DVD felbontás, a PAL 720x576. És idővel a DVD-nél is kikopott az interlace. Az 1280x720 felbontás meg a "HD Ready" nevet kapta a marketingben, amúgy ez jó nagy átverés, meg sunnyogás volt a HD bevezetésénél, mert az elején a felbontás 1280x720 volt, amit akkor ugyanúgy HD-nek neveztek, aztán az 1920x1080 terjedésénél az lett a HD, a másik meg a HD Ready....
Hozzászólás írásához be kell jelentkezned!
Ha nem vagy még tag, regisztrálj! 2 perc az egész.
Egy kis türelmet kérünk...