Watch Dogs 2
Bejelentkezés
Elfelejtett jelszó

Regisztráció
[x]

maradj bejelentkezve

Fórum

Hardware

»» 3dlabs P10

1778 levél
Válasz 02.05.08. 14:03 #7
VOid-
Ezeket az adatokat a www.prohardver.hu ról szedtem ;D ott képek is vannak többet nem tudok róla én se .
9786 levél
Válasz 02.05.07. 21:02 #6
Sirmelon
Hmmm. Tényleg kimeritő voltál.
De lássuk a tanulságokat:

1. Tök jó hogy letettem a garast a GF4 Ti mellett, igy valszeg nem kell már váltsak az uj generáció /legyen akár a P10, akár az nVidia vagy az ATi válaszkártyája/ eljöveteléig.
Egyelőre ez egy jól kiforrott, stabil platform, ahogy irod is, jók a driverek /ebben legalább lóhosszal veri az nVidia az ATI-t/, ami minden uj technologia kezdeti buktatója, hiszen idő kell amig egy hardverből kiszedhető mindaz ami benne van: ld. az uj driverek hozta sebességtöbbletek pl. a GF3-oknál.
És persze kell hogy a játékok is támogassák az uj kártyákat.
2. Talán még fontosabb: a gépet mindig a csucson kell tartani, hiszen az uj oprendszer, s az uj kártyák igen combos CPU-kat, nagy sávszélességü és mennyiségü RAM-ot /DDR400, vagy inkább az 533-as DDR-II/, uj alaplapokat igényel.
Na most ennek legjárhatóbb utja az alkatrészenkénti ill. alkatrészcsoportonkénti /pl. mobo+CPU+RAM kombó/ folytonos update, sokkal drágább hagyni egy konfigot elavulni, s időnként a nulláról venni egy kész atomerőmüvet - nekem ez a koncepcióm, ezért ujitok folyton, mig a "régi" hardvert is jó áron tudom eladni, gyk konvertálni az értékét az ujba.

Amugy köszönet a kimeritő elemzésért, de elárulnád hogy hol jelent meg/jelenik majd meg a cikk?
Szivesen megnézném képekkel együtt.

Sirmelon™
Si vis pacem, para bellum!
3123 levél
Válasz 02.05.07. 20:27 #5
CybearBoy
Szép ctrl-c/ctrl-v volt...
1778 levél
Válasz 02.05.07. 19:27 #4
VOid-
Miközben mindenki az AMD weboldalát leste, a sokat ígérgetett és elmaradt Thoroughbred bejelentése kapcsán, a 3DLabs a "kertek mögött lopakodva besurrant a házba, és bunkójával iszonyatosat csapott az asztalra". Talán így értek minket a tegnap napvilágot látott sajtóanyagok és bemutatók az egy ideje feledésbe ment 3DLabs új grafikus chipjéről, a P10-ről. A PC-s grafikus piac nagyon izgalmas év előtt áll, ezt már eddig is érezhettük, pedig a java még hátravan. A P10 mindenesetre az új generáció "első hulláma".

Biztosan sokan vagyunk úgy, hogy adott pillanatban meghozzuk a döntést: megérett az idő gépünk felújítására. Körülnézünk, hogy mi kapható, és arra jutunk, hogy egy picit várni fogunk, mert a számítástechnikai piac épp most áll "generációs megújulás" előtt, így pár hónap múlva a mostani high-end lényegesen olcsóbb lesz, sőt, annyira meggyengül, hogy nem is akarjuk majd megvenni.

A jelenség már-már beteg a hardvereknél, és e tekintetben a videokártyák az élen járnak. A rövid termékciklusok és az intenzív verseny miatt egymást tromfolják a gyártók, havonta kell új betűszavakat, marketing szlogeneket és világmegváltó hozzáállást megtanulnunk, felismernünk. Hiszen -- ugye -- egy GeForce3 után "nem pálya" GeForce2-es kártyát venni, ha jót akarunk. Sima ügy, a GeForce3 tényleg sokkal, sokkal többet tud, és a sokat emlegetett FSAA is -- többek között -- ott az igazi, a GeForce2-höz képest. OK, várjunk, amíg olcsó lesz a "Ge3"... vártunk, és most itt állunk. Most már megfizethető a kártya, de mi történt? Az ATi Radeon 8500-as családja is drasztikus árcsökkentés áldozata lett. Márpedig az mégiscsak DirectX 8.1, mert TRUFORM, meg fejlettebb... De sajnos nem egyszerű az élet, mert -- mint azt keopsz hamarosan debütáló cikkéből is látni fogjuk -- ha FSAA és anizotropikus szűrés, egyszóval, ha igazi képminőség, akkor csakis GeForce4 Ti. Szóval itt állunk most, a GeForce4 Ti-nél amúgy sem kapható jobb kártya, ráadásul ahhoz képest, hogy mennyire új, nem is drága. Akár ki is mondhatnánk a boldogító igent...

DE!

De, sajnos ez nem ilyen egyszerű. Több gyártó is gondoskodik arról, hogy megtörjék lelkesedésünk a Ge4 iránt, noha konkrét termékekkel persze még nem tudnak szolgálni. De mégis mi az, ami elavulttá tehet egy GeForce4 Titaniumot? A választ a 3DLabs P10 adja meg, persze nem önmagában. Lássunk egy feature listát, minekutána már egyértelmű lesz, hogy honnan fúj a szél...


0.15 mikronos gyártás (mint a GeForce4)
76 millió tranzisztor (Radeon 8500 = 60 millió)
A chip a TSMC gyárában készül (mint az nVidia chipek)
860 ball HSBGA csomagolás (a TSMC legújabb gyártási eljárása)
4 pixel pipeline, pipeline-onként 2 textúrázó egységgel.
256-bit DDR memória interfész! (akár 20GB/s memória-sávszélesség)
max. 256 MB memória támogatása
4X-es AGP támogatás
Teljeskörű DirectX 8 pixel és vertex shaderek támogatása
Teljeskörű programozhatóság, rengeteg vertex és pixel pipeline, stb. Minderről külön írunk a következő oldalakon...
Igen, igaz. A P10 256 bites DDR memóriavezérlővel bír, tehát olyasmit tud, amit eleddig senki. A GeForce256 DDR volt az első chip, ami a 128 bites DDR buszt használta, és egészen máig, a teljesítménybajnok GeForce4 Ti családig nem változtatott ezen az nVidia. Tette mindezt kényszerből, természetesen. Nem egyszerű ugyanis egy 256 bites buszt implementálni, a hihetetlen sok csatlakozás miatt. Akkor honnan vette a 3DLabs a "bátorságot"? A dolog gyakorlati lehetőségét a GeForce4 Ti-nál megismert, BGA tokozású memóriák teszik lehetővé, melyek fizikai kialakítása miatt már megoldható a dupla mennyiségű vezeték.

Ha belegondolunk, hogy a GeForce4 Ti4600 több, mint 10 GB/sec sávszélességet biztosít a 650 MHz-es DDR RAM-jával (valójában 325 MHz-en működő, de DDR RAM, amit mindenki 650 MHz-esnek ismer, a csodálatos marketingnek hála...), akkor ennek duplája reális a kétszeres szélességű csatorna (busz) miatt. Fontos azonban leszögezni, hogy mindezt az összes többi gyártó is "tudja", így a régóta várt Matrox Parhelia is egy 256 bites busz várományosa (a 4 MB embedded DRAM mellett...?), illetve gyanítható, hogy az nVidia NV30 és az ATi R300 sem éri be kevesebbel. Ki is mondta, hogy a grafikus piac kétpólusú...?

Adalék a tűzre, hogy a 3DLabs a P10-est a frissen kreált VPU (Visual Processing Unit) kategóriába sorolja, felhívva a figyelmet ezzel arra, hogy a P10 nem ám amolyan "szemi-programozható" megoldás, mint a GeForce4 és Radeon 8500, hanem TÉNYLEG szabadon programozható...

Ennyi talán elég volt ahhoz, hogy felkeltsük az érdeklődést (a 256 bites VPU bunkó, amivel az asztalra vágunk... (C) by Adi), most tekintsük át a P10-et röviden... ugyanis sok meglepetést tartogat számunkra a memóriaszervezésen kívül!

A grafikus piac átalakulóban van, ehhez nem fér kétség. Az utóbbi évben olyan tendenciák bontakoztak ki, melyek megváltoztatják a 10 éve viszonylag stabilan evolválódó grafikus szektort. Az egyelőre nem túl jól fogyó Microsoft XBox az előszele annak, hogy a PC-s 3D a jelenlegi formájában, hosszútávon halálra van ítélve. A DirectX térhódítása, a konzolok erősödése mellett annak is tanúi lehet(t)ünk, ahogy az egyre erősebb, szabadabban programozható, nagyobb, szebb és drágább grafikus chipek (GPU-k) elvesztik az ágazatra ható húzóerejüket. Ahogy egy Voodoo kártya alapjaiban tudott megváltoztatni valamit (még ha nem is az első volt...), úgy a GeForce3 és GeForce4 korántsem szólt akkorát a PC-s piacon, mint azt tehette volna.

Konzolokon ellenben annál esélyesebb, hála az egész (PC-s) világot uraló Microsoftnak és a DirectX-nek. A Microsoft azonban nem lenne hű önmagához, ha nem ő lenne az irányadó minden ilyen területen. A PC-nek is komoly szerepet szán, méghozzá a jelenleg fejlesztés alatt álló Longhorn kódnevű operációs rendszerével.

Sokan panaszkodnak, hogy nevetséges, hogy egy csicsás grafikával megáldott Windows XP mennyire erőforrásigényes. És igazuk van. A Pentium 4-nek és az Athlonoknak is igazából a Windows XP adott értelmet, a korábbi Windows-ok ugyanis remekül futottak P2-eseken és P3-asokon is. Durván 10-15 százalékos teljesítményvesztéssel járt a Windows XP-re való áttérés (memória, rendszer-erőforrások, stb.). Nos, a "jó" hírünk az, hogy mindez SEMMI a Longhornhoz képest. A Longhorn olyan követelményeket támaszthat gépünkkel szemben, hogy egy most összelőtt 2 gigás P4-es, 256-512 MB RAM-mal és egy GeForce3-as videokártyával a MINIMÁLIS konfiguráció legyen, amin az operációs rendszer egyáltalán elfut!

Mindez nem vicc! A Windows XP, noha lassan, de elfut egy Pentium 2-es gépen. A Longhorn nem fog. Nem azért, mert annyira rosszul lesz kódolva (bár ez mindentől függetlenül igen valószínű... , hanem azért, mert minőségileg megújítja az operációs rendszertől elvárható feladatok listáját.

A Longhorn elvárhatja, hogy MINDEN EGYES ABLAK egy önálló 3D-s textúraként működjön. Minden ablakban 3D-s játékok, animációk, 64 bites képfeldolgozók, tökéletes mozifilmek és hasonlók futhatnak! Teljesen átlagos helyzet lesz tehát, amikor a grafikus kártya pixel shaderei egyszerre 5-6 Windows ablakban dolgoznak. Most, a cikk írása közben épp 9 ablakot használok, pedig kifejezetten nem kedvelem, ha egynél több dolgot kell egyszerre néznem. A Longhorn igazi 3D-s, multimédiás operációs rendszer lesz. A Microsoft a digitális fotózástól kezdve minden manapság népszerű területet szeretne a helyére tenni a Longhornnal, így a minimális grafikus kártyától is elvárható lesz a mostani 8 bites DAC-nál (digitál-analóg konverter) és a 128 MB RAM-nál lényegesen jobb/több.

Egy 3D-s jelenet rendereléséhez, amennyiben minimum 32 bites színmélységet, mondjuk 4X-es FSAA-t, anizotropikus szűrést állítunk be, 1600 x 1200-as felbontásban, már durván 64 MB nagyságrendű RAM szükséges. Ennyi ugyan van a mai grafikus kártyákon, de a Longhorn esetében ez egy, azaz EGY ablakot jelent. Tíz ablak esetén már 640 MB RAM-ról beszélnénk, ami pár éven belül sem reális egy grafikus kártyánál...

Foglaljuk össze: a Microsoft a grafikus chipek fejlődését a Longhorn kódnevű, leendő operációs rendszerével diktálja, igen magas elvárásokat támasztva a hardver felé. A mainál sokkal nagyobb színmélység, teljes (!) programozhatóság, teljesen párhuzamosított végrehajtás (a szimultán működtetett ablakok miatt... nem véletlen például, hogy az Intel féle HyperThreading is most bontogatja szárnyait!) és mindennek megfelelően lényegesen potensebb teljesítményt vár a gyártóktól. A VGA halálra van ítélve (nagyon helyesen...) a 32 bites színmélységgel együtt és az egész mai 2D és 3D koncepciót némileg meg kell reformálni. A 3DLabs P10 az első tagja az "új generációnak", mely igen komolyan veszi ezeket a követelményeket. Most már tényleg térjünk rá magára a P10-re, mely, a fentiek fényében biztosan meglep minket egy-két tulajdonságával...

Először is le kell szögeznünk, hogy a P10 ugyanúgy rendereli a 3D-s képeket, mint a legtöbb ma használatos grafikus chip, sőt, még annyiban is hasonlít rájuk, hogy a Tile Based deferred rendering nevű eljárás helyett (aka Kyro II) a hagyományos, "pazarlós" renderelést használja, azaz nem csak a végül megjelenített pixelekkel számol (és fordít rengeteg időt, energiát és tranzisztort arra, hogy megállapítsa, hogy melyek azok), hanem -- kis trükkökkel persze, de -- az összessel.

Hogy is néz ki a hagyományos renderelés? Röviden, és pontatlanul:

A központi processzor (CPU) elküldi az adatokat a grafikus processzornak (GPU) az AGP/PCI porton keresztül és a drivereken keresztül "utasítja" a GPU-t, hogy mit csináljon.


A grafikus processzor megkezdi a kapott adatok (háromszögek csúcsai, vertices) feldolgozását. Első körben transzformálja őket a 3D-s világba (transformation, T&L), majd megvilágítja őket (lighting, T&L). Korábban ezt a lépcsőt a CPU-val végeztették, az első hardveres T&L-lel bíró kártyák már maguk csinálták, de csak előre adott módon, míg ma, a programozható vertex shadereknél a programozó állíthatja be, hogy ez a két lépcső hogyan történjen (spéci effekteket lehet tehát kreálni).


Most jönne a pixelek generálása az immáron transzformált és megvilágított csúcspontokból, de előtte a grafikus chip elvégzi az összes sávszélesség-növelő hókuszpókuszt, azaz eldobja azokat a csúcspontokat, amelyekről így, vagy úgy, de megállapította, hogy a végső képen nem fognak látszani, megkímélve magát a fölösleges számításoktól. Az ún. Occlusion Culling, és az ezen alapuló HyperZ (ATi), vagy Visibility Subsystem (nVidia), Early Z-check és egyéb megoldások mind ide tartoznak. Régebben (Voodoo3, TNT2, stb.) ez a lépcső úgy, ahogy van, hiányzott.


Megtörténik a 3D => 2D konverzió, azaz a virtuális 3D-s világból a GPU leképezi a koordinátánkat a monitorunkon megjelenítendő 2D-s képre.


A GPU kiszámolja a generált poligonokra (háromszögekre) "húzandó" textúra koordinátáit, és el is végzi a "textúrázást". A textúra pixeleit már a pixel shaderekkel manipulálhatjuk, és érhetünk el vele szebbnél szebb effekteket.


Az utolsó lépésben a végső képminőség-javító eljárásoké a szerep. A különböző filterezés, FSAA és egyéb extrák itt kerülnek képbe, majd ezek végeztével a már ténylegesen kész kép megjelenítésre kerül a RAMDAC-on (vagy a TMDS-en, ha digitális megjelenítőt használunk) keresztül.
A fentiek fényében lássuk a P10 pipeline-ját! A sárga dobozok programozható, míg a pirosak fix funkciójú elemeket jelölnek
Kérdés, hogy mik a P10 újdonságai az egyes fázisokban? Lássuk, most már egész konkrétan
A P10-nek saját command processzora van, melynek feladata az egyes grafikus szálak ütemezése. Szálak, ugyanis a P10 command processzora minden végrehajtási szálhoz külön utasításpuffert rendel, így azok tényleg parallel képesek futni (logikailag, és részben fizikailag). Ha az egyik szál érvénytelen műveletet hajt végre, azaz nem megfelelő adat kerül a szál utasításpufferjébe, akkor az adott szál "kihalhat", de -- és ez a kritikus pont -- ez nem érinti a többi, hibátlanul működő grafikus szálat. Magyarul ha a Microsoft Longhorn egyik ablakában egy program (tfh. 1 ablak = 1 szál) valami disznóságot csinál, akkor az ablak bezárul, de ez nem érinti a többi ablakban futó grafikus programokat.

A párhuzamos működés, illetve a szálak ilyen jellegű izolálása az egyik kritikus pont a jövő operációs rendszeréhez, amire a mai kártyák még nem képesek. A párhuzamos működésnek a mai játékok szempontjából semmi jelentősége sincs, ez tehát egy "jövőbe mutató" feature.

16 vertex processzor

A P10 összesen 16 db, fejenként 32 bites lebegőpontos vertex processzorral rendelkezik. Ezzel szemben a GeForce4 kettő ilyen vertex shadert tudhat magáénak. Van különbség azonban a két implementáció között. Az nVidia és az ATi megoldásai ugyanis négyelemű (4 dimenziós) vektorokkal számolnak, míg a P10 vertex shaderei csak egyeleműekkel. Ha négyelemű vektorok az adatok, akkor a P10-nek négy vertex prociját kell egyszerre használnia, hogy egy ilyen vektorral számolni tudjon. Mivel a legtöbb adat valóban négyelemű, ezért a 16 vertex shadert leginkább 4 x 4-ként képzelhetjük, azaz az nVidia féle értelmezésben 4 vertex shaderrel bír a P10. A vertex pipeline-ok leosztását a hardver (VP manager és a raszterizáló felé a multiplexer) végzi, a szoftver számára a művelet tranziens és csak egyetlen, nagy vertex processzorral kommunikál.

A megoldás egyébként ugyanazt az elvet követi, mint az nVidia crossbar memóriavezérlője (LMA). Egyszerűen finomabb felbontásban engedi elérni az adatokat, így -- amennyiben például -- csak kételemű vektorokkal számolunk, a P10 már ciklusonként 8 vektorral bánik el, míg a GeForce4 ugyanúgy csak kettőt tud kiszámolni, mert mindenképpen négyelemű a vertex pipeline, ha kihasználjuk, ha nem! Emlékezzünk, hogy ott a 128 bites memóriabuszt lehetett címezni 4 x 32 bites szegmensekben!

A crossbar memóriaszervezésre még visszatérünk a későbbiekben, a 256 bites memóriabusz miatt az ugyanis gyakorlatilag elengedhetetlen. A vertex processzorokhoz kapcsolódóan még annyit kell megemlítenünk, hogy azok teljes mértékben DirectX 8 kompatibilisek, sőt, könnyen Vertex Shader 2.0, azaz DirectX 9 kompatibilissé tehetőek a későbbiekben.

Tile processzor

Korábban már írtuk, hogy a P10 NEM az ún. Tile Based renderinget használja, ugyanolyan hagyományos renderelő, mint az nVidia és az ATi összes kártyája. A megtévesztő elnevezés mögött a P10 teljesítmény maximalizáló és sávszélesség-spóroló eljárása bújik, azaz egyfajta Occlusion Culling megoldásról van szó.

Tile alatt a 3DLabs azt érti, hogy a renderelendő képet a P10 8 x 8-as pixel blokkokra bontja, és ezekkel számol a továbbiakban, nemes egyszerűséggel azért, mert így használja ki legjobban a belső cache kialakítását.

A visibility processzor pedig a HyperZ-hez hasonló Z-tömörítés és Occlusion Culling felelőse, bár erről nem áll rendelkezésre kellő információ.

64 pixel processzor

A vertex shaderekhez hasonlóan a pixel processzorok is 32 bites processzorok tömbjéből állnak. Összesen 64 db lebegőpontos koordináta-generátor és 64 db, csak egész (!) műveleteket végző pixel processzora van. A 3DLabs szerint egyébként ezt hívják igazi programozhatóságnak, ellentétben az ATi/nVidia megoldásaival (melyek sokkal kevesebb, de komplexebb, ugyanakkor kevésbé flexibilis register combinerekből -- pixel shaderekből -- állnak).

A P10 ezen processzorokból összesen 4 pixel pipeline-t üzemeltet, pontosan négyszer annyit, mint a GeForce4! A P10 pixel shaderei DirectX 8 kompatibilisek, de "sajnos" a DirectX 9 elvárásainak nem felelnek meg, ugyanis a Microsoft a DirectX 9-cel elvárja, hogy a pixel pipeline-ok elejétől a végéig lebegőpontos egységekből álljanak. Tehát, amíg a P10 vertex shaderei csak azért nem "DX9-esek", mert a végső DX9 specifikációk még nincsenek kész, addig a pixel shaderek nem is lehetnének azok. A 3DLabs ezt azzal indokolja, hogy a most használatos 0.15 mikronos gyártási eljáráshoz túl komplex lenne egy ilyen chip, azt minimum 0.13, de méginkább 0.10 mikronon kellene gyártani. Az ősszel debütáló NV30 és R300 már 0.13 mikronos, és DirectX 9-es chip lesz.

A P10 egy menetben 8 textúrát képes feldolgozni, a GeForce4 viszont csak négyet (a Radeon 8500 pedig hatot). A VPU ráadásul változó textúra méreteket is kezel, bár ez megint csak a Longhornnál nyer majd értelmet (ugyanakkor DX9 követelmény).
Filterelés

Amikor a 3DLabs azt mondja, hogy programozható, úgy is gondolja. A P10 a renderelés utolsó fázisában sem fix funkcionalitású, ugyanis a különböző filterek és antialiasing (FSAA) módok is programozhatóak, ellentétben a mai GPU-kal. Gyakorlatilag bármilyen AA-ra képes a P10, beleértve az vonalmenti élsimítást (Edge AA) és a super- és multisampling alapú teljes képernyős élsimítást (FSAA). Új feature a 8X-os FSAA.

A P10-zel lehetővé válik a 64 bites színmélységben renderelés, és a 8 helyett 10 bites DAC használata, azaz színkomponensenként (R, G, 256 helyett már 1024 színátmenet lehetséges. Ez a digitális fotózás, illetve általában, a képminőség javításának hatékony módja. Ugye emlékszünk még, hogy ez a Longhorn követelményeinek egyike?

RAM szervezés, avagy az L2-es cache

A P10 nemes egyszerűséggel átértelmezi a videokártyán található memória szerepét. Amíg az összes eddigi videokártya a frame buffert tárolta a saját memóriájában, és csak akkor folyamodott az AGP textúrázáshoz, ha mindez nem fért bele, addig a P10 ezt egész másként teszi. A "hagyományos" megoldásnak hátránya, hogy az AGP buszon keresztüli textúrázás nagyságrendekkel lassabb, mint ha azt a kártya saját memóriájából teszi. Abban a pillanatban tehát, amikor a kártya memóriája elfogy, a teljesítmény elfogadhatatlan szinte esik vissza, még 8X-os AGP busz mellett is. Magyarán a játékírók kénytelenek odafigyelni arra, hogy NE használjanak nagyobb textúrákat, mint a játék megjelenésekor standardnak mondható videokártyán található memóriamennyiség. Jelen esetben ez jóindulattal is csak 64 MB.
A P10 egyet csavar a dolgon, és azt mondja, hogy a videokártya memóriáját egyfajta L2-es cache-ként értelmezi. Az kerül tehát oda, amin ÉPPEN dolgozik a VPU, minden mást pedig a számítógépünk rendszermemóriájában tárol. Az adatok beolvasása természetesen az AGP buszon keresztül történik. A megoldás azért üdvözölt gyakorlatilag minden nagy név által (például John Carmack és Tim Sweeny, de ide tartozik Bill Gates is , mert lehetőség nyílik a 64/128 MB-os textúrák helyett az akár 16 GB-osak (!) használata. A cikk elején említettük, hogy a Longhorn operációs rendszer milyen mennyiségű memóriát igényel majd a gyártók részéről, és erre ez az elegáns megoldás. Mindenképpen van ugyanis egy felső memóriakorlát, amit valahogyan meg kell oldani. Hasonló ez, mint a virtuális memória, ahol a merevlemez kapacitását használjuk arra, hogy az éppen nem szükséges adatokat kiírjuk, és a rendszermemóriában csak azt tároljuk, amivel éppen dolgozunk. Mára a virtuális memória teljesen elfogadottá vált minden operációs rendszernél (nem pálya ugyanis egy "ehhez a programhoz több RAM kell, neked nincs, vegyél még!" hibaüzenet és valóban áthághatatlan felső korlát...).

Talán pont ezért is hívja VMS-nek, avagy Virtual Memory Systemnek a 3DLabs a memóriaszervezését. A feature megint csak a Longhornnál nyer értelmet, ami a nem-profi felhasználást jelenti. Profi 3D-s alkalmazásoknál ugyanis eddig is gond volt a hatalmas számításokhoz rendelkezésre álló szűk memória (128 MB is lehet szűk...), ott tehát biztosan tárt karokkal várják a P10-est.

256 bit

A cikket azzal indítottuk, hogy milyen nagyszerű újítás a 256 bites DDR memóriabusz, és ezt továbbra is mondhatjuk. Fontos azonban látni, hogy a 256 bit miatt még fontosabb a szerepe egy crossbar jellegű vezérlőnek, amely képest a memóriával a 256 bitnél kisebb egységekben is kommunikálni. Tudható ugyanis, hogy a legtöbb adat nem lesz ilyen nagy, ha pedig crossbar szervezés híján egy 32 bites adatokból álló tömböt akarunk a video RAM-ba mozgatni, azt ugyanolyan lassan tudjuk csak megtenni, mintha ugyanezen adatok 256 bitesek lennének (azaz ciklusonként egy adat megy át, akármekkora is az). Ha azonban -- mondjuk 64 bites egységeket feltételezve -- ezt egymástól független egységekkel tudjuk elvégezni, akkor már egyszerre több, jelen példában négy adatot tudunk mozgatni.

A GeForce3 és GeForce4 Ti jelenleg 4 x 32 bites, a GeForce4 MX és a Radeon 8500 pedig 2 x 64 bites vezérlővel rendelkezik, tehát a minimum, ami elvárható a P10-től, az a 4 x 64 bites hozzáférés, ideális esetben pedig 8 x 32 bites -- ha az nem jelent túl komplex megvalósítást. Ellenkező esetben a 256 bites busz olyan, mintha ott sem lenne.

"Röviden" ennyit szerettünk volna mondani a 3DLabs P10-ről a rendelkezésre álló információk alapján. Most pedig lássuk, hogy mire, mikor és kitől számíthatunk!
Tudjuk, hogy a profi kártyákat fejlesztő, a korábbi Permedia chipeket gyártó 3DLabs céget megvette a Creative. A teljes akvizíció idén télen zárul le. A 3DLabs mindig is a profi, OpenGL kártyákra koncentrált, és a P10 is jól láthatóan ebbe a vonalba illeszkedik. A P10 fejlesztése egyébiránt majd két évet késlekedett, tehát egy megkésett megoldásról van szó.

A P10 jelenleg már végső szilíciumánál tart, az első profi kártyákat 1-2 hónapon belül várhatjuk a 3DLabs-től, Oxygen2 márkanév alatt. Két -- a profi piacra szánt -- terméket dob ekkor piacra a 3DLabs:


Oxygen 2 5400: 64 MB DDR SDRAM, 599 dollár
Oxygen 2 7600: 128 MB DDR SDRAM, 899 dollár
"Minket" mindez nem érint, a Creative tervei viszont annál inkább. A Creative ugyanis azt tervezi, hogy a piacon szerzett befolyása, neve és ereje miatt visszatér a grafikus versenybe a P10 egy fogyasztóibb verziójával. Sok kérdés van még ezzel kapcsolatban, egyrészt hardver oldalról (nem csinál-e a Creative 128 bites memóriabuszt a 256-ból a költségek alacsonyan tartása végett, stb.), másrészt a driverek szemszögéből is (ki ír majd az nVidia drivereivel vetekedő minőségű meghajtókat a P10-hez?).

Nincs okunk azonban feltételezni, hogy a Creative ne tudná, hogy mit csinál. A 3DLabs akvizíció téli lezárta egyben azt is jelenti, hogy a P10 ezen verzióját leghamarabb karácsonyra vehetjük meg barátnőnknek... . Tudjuk, hogy addigra az NV30 és az R300 is megjelenik, valamint, hogy ha a Matrox valaha is akar magával valamit kezdeni ezen szektorban, akkor ők is bedobják az adujukat (Matrox Parhelia). A SiS Xabre még meg sem jelent, és máris elavult, de a Trident is felkötheti a gatyáját, ha tényleg asztali gépekbe is szánja XP4-es chipjét.

Jól látható tehát, hogy a grafikus piac korántsem kétszereplős, mint ahogy azt az utóbbi időben mindannyian hittük. ATi, nVidia, 3DLabs, SiS, Trident, Matrox, S3, stb. Vannak még lehetőségek, a 3D-s grafika nem a világ legbonyolultabb dolga, egy cég ügyes mérnökökkel meglepheti ellenfeleit, és komoly átmeneti előnyre tehet szert, ha jól dönt. Garancia semmire sincs, de lehetőség van, akkor is, ha a kérdés ma jóval tőkeerősebb vállalatokat igényel, mint mondjuk 5 éve.

Az is egyértelmű, hogy semmi sem volt a grafikus piacra olyan hatással, mint a Longhorn lesz (lehet). A jövő a Microsoft kezében van, a grafikus piac pedig egy soha nem látott lehetőség előtt, ha valóban szigorú követelményeket támaszt a hardverrel szemben és betartja a jövőbe mutató ígéreteit a Longhornnal kapcsolatban. Aki "alkalmazkodik", megmarad, aki nem, hátrányba kerül. Ha eddig lassúnak és unalmasnak gondoltuk volna a 3D-s világot, akkor most bekapcsolhatjuk a biztonsági öveket, mert az idei év nagyon pörgős lesz.

A P10 előnyeit és újításait röviden három nagy csoportba sorolhatjuk. Egyrészt, a 256 bites DDR memóriabusz üdvözölt döntés. Másrészt, a virtuális memória modell, avagy a VMS igazi csemege, még akkor is, ha ennek csak idővel lesz komoly hatása. Harmadrészt elegáns megoldás, hogy gyakorlatilag minden szinten teljesen szabadon programozható a P10, valamint a mostani kártyákhoz képest több és jobb végrehajtóegységekkel rendelkezik. A chip ugyan egyelőre egyértelműen a profi piacot célozza meg, de ha hihetünk a Creative-nek, akkor még idén megvehetjük egy, a játékosoknak szánt verzióját is. Ha nem lenne politikai felhangja, most azt mondhatnánk, hogy "a jövő elkezdődött".

Na rüviden ennyi akarsz még vmit tudni róla ? ;DDD
9786 levél
Válasz 02.05.07. 16:55 #3
Sirmelon
De pontosan mit is hoz? <
Részleteket!

Sirmelon™
Si vis pacem, para bellum!
1984 levél
Válasz 02.05.07. 06:51 #2
Hubert
Nem tudom, ez mennyire fontos, de lehet karácsonyra majd hoz az angyal....
Next stop, Wonderland.
1778 levél
Válasz 02.05.05. 12:08 #1
VOid-
Valaki bármilyen fontos adatot megtud erről a kártyáról azt irja ide Megint egy új rivális az nvidiá nak ;D

A fórumon szereplő hozzászólások olvasóink véleményét tükrözik, azokért semmilyen felelősséget nem vállalunk.