25 éve Veletek – PC Dome / PlayDome

Kütyü+hardver

NVIDIA GeForce3

Hamarosan boltokba kerülnek az első GeForce3 kártyák. Cikkünkben a chip újdonságairól olvashattok.

Írta: Blade Runner

Az NVIDIA az első GeForce kártya megjelentetésével vált a 3D kártyák egyeduralkodó gyártójává. Az annak idején forradalmi újdonságokat tartalmazó kártya gyakorlatilag állva hagyta a 3D kártyák gyártóinak mezőnyét. Ennek következtében a teljes mezőny át is alakult. Az addigi vezető gyártó, a 3Dfx azóta bedobta a törülközőt, mert nem volt képes 2 év alatt olyan kártyával kirukkolni, amely egyértelműen jobb lett volna, mint az akkor már piacvezető GeForce. A széles közönség felé is néhány évre kinyitott nagy múltú Matrox újabb termékeivel ismét az üzleti szféra felé fordult, és gyakorlatilag kivonult a tömegtermelésből. (A szerző pedig ma is szép emlékekkel gondol vissza a majdnem 3 éves Matrox G200 kártyájára, amely a maga idején nagyon gyorsnak számított, és a kép minősége szubjektív véleménye szerint még ma is verhetetlen.) Az egyedüli gyártó, aki komolyan vette a kihívást, és minőségében, teljesítményében a GeForce-szal egy kategóriába tartozó termékkel jött ki, az ATI volt Radeon nevű kártyájával. Mivel a Radeon csak a múlt év júliusában jelent meg, ezért – logikusan - a csipbe már néhány DirectX8-as lehetőség is megjelent, bár elég távol voltak attól, hogy minden DX8-as lehetőséget beépítsenek. Ironikus, hogy éppen az ATI készítette el ezt a kártyát, aki olyan grafikus kártya szegmensben egyeduralkodó - itt a kis fogyasztású notebook számítógépekhez készült video vezérlőkre gondolok - amely lehetővé tenné számára, hogy nyugodtan üljön a babérjain, és felhagyjon a teljesítmény orientált 3D-s kártyák gyártásával.

A GeForce kártyák nagyteljesítményű és gyors 3D-s belső egységei következtében tudták a versenytársak hasonló célú termékeit lekörözni, magyarul ezt nyers erőnek is mondhatnánk. Ez a fajta teljesítmény növelés a GeForce2 Ultra kártyákkal érte el a csúcsát. Olyan fizikai törvények, mint az elektronikus alkatrészek hőtermelése, a megfizethető memória sebessége, a memória hozzáférés sebessége behatárolták a teljesítmény növelésének ezt az útját. Új lehetőségeket kellett keresni, és ennek eredményét, a GeForce3-as kártyát a szerencsések már a kezükben tarthatják, illetve a gépükben használhatják, természetesen a teljes DirectX8 hardveres megvalósításával együtt.

Nézzük az adatokat!
Maga a csip 57 millió tranzisztort tartalmaz, ami több mint a Pentium 4-es tranzisztorainak száma!
0.15 mikronos technológiával készült, a hőtermelés minnél alacsonyabb szinten tartása céljából.
Maga a csip 200 MHz-en, míg a memória 230MHz-en, illetve DDR (duplasebességű) memória technológiával 460MHz-en működik
A piaci ára kb. 500$ körül van, ami nagyon drága, főleg ha figyelembe vesszük azt is, hogy a piacon elvétve vannak még csak olyan alkalmazások, amelyek a DX8 új lehetőségeit többé-kevésbé kihasználnák.

A kártya újdonságai:

  1. Vertex Shader
  2. Pixel Shader
  3. Újszerű, nagysebességű memória architektúra
  4. Gyors anti-aliasing
  5. Z vágás

A Pixel Shader és a Vertex Shader a két igazán forradalmi újdonság a kártyán. Az eddigi kártyák bizonyos „előre drótozott” lehetőségeket biztosítottak a felület számításoknál, illetve konkrét képpont értékek kiszámításánál. Amennyiben valami speciálisat szeretett volna a 3D-s program készítője, ezt szoftver úton kellett saját magának megalkotnia. Ennek most vége a GeForce3-as kártyával. Mind a két Shader egység gyakorlatilag egy speciális 128 lépésben programozható processzornak tekinthető, amely kifejezetten a grafikus feldolgozást támogató utasításkészlettel rendelkezik. Egyszerűen szólva most már nem csak arra van lehetősége a grafikus alkalmazás programozójának, hogy az adatokat egy-egy speciális műveletet végrehajtó egységre küldje feldolgozás céljából, hanem arra is, hogy magát a feldolgozás módját meghatározza, módosítsa, átírja! Ennek következtében egyrészt lehetőség nyílik arra, hogy villámgyors feldolgozást biztosítsunk olyan esetben, amikor nincs szükségünk sok feldolgozási lépésre, azaz bizonyos lépéseket egyszerűen kihagyhatunk, másrészt olyan effektusokat építhetünk a játékokba, amelyeket eddig nem lehetett végrehajtani a szoftveres megoldás lassú volta miatt. A programozás lehetőséget nyújt arra is, hogy olyan effekteket építsenek a jövőbeni programokba, amelyek még ma nem is léteznek, mert még nem találták ki őket! Egyszerűen csak átírják a megfelelő programrészt, és íme kész az új effekt!

A harmadik forradalmi újdonság a nagysebességű memória architektúra. Normál esetben ugye megkapjuk az adott kártya leírásánál, hogy elvileg mekkora adatmennyiséget képes a kártya memóriája és a grafikus processzor között megmozgatni. Ez a GeForce2 Ultra kártya és a GeForce3 kártya esetén gyakorlatilag azonos. Mégis a GeForce3 kártya gyakorlati körülmények között magasabb teljesítményt képes nyújtani. Akkor mi a különbség oka? A klasszikus memória kontroller megoldásoknál a teljes memória sávszélesség a memória egy adott pontjára mutat. Amikor a memóriából például nem 256 bites adatot, hanem mondjuk csak 64 bites adatot akarunk olvasni, akkor a teljes sávszélesség 75%-a kárba vész. A GeForce3 ezt a problémát úgy kerülte meg, hogy nem egy , hanem négy memóriavezérlőt épített be a GeForce3 kártyájába, amelyek egymással párhuzamosan 4 különböző pontjára mutatnak a memória területenek. Amikor mondjuk két 128 bites adat 2 különböző memóriaterületen helyezkedik el, ezzel a memória architektúrával megoldható, hogy ezt a grafikus processzorba azonos időben töltse be a memória kontroller. A gyakorlatban ez azt jelenti, hogy ebben a példában fizikai sebesség növekedés nélkül gyakorlatilag megdupláztuk a memória sebességét, mert nem két, hanem csak egy lépés kellett az adatok betöltéséhez. Ennek az architektúrának a hasznossága attól is függ, hogy az adataink mnnyire szétszórtan helyzekednek el a memóriában. Mivel a tökéletes rendezettség soha sem létezik, ezért várható, hogy a valóságban ez a megoldás jelentősen növeli a meória hozzáférés átlagos sebességét, amely pedig növeli a kártya tényleges mérhető, érzékelhető sebességét is.

A negyedik a nagy sebességű anti aliasing. Először is tisztázni kellene mi is az anti-aliasing. Amikor egy vonalat húzunk a képernyőn, a vonal, ha nem pont függőleges, vagy vízszintes vonalról van szó, lépcsőzetesnek tűnik. Amikor ezt a lépcsőzetességet tüntetjük el valamilyen módszerrel, ezt hívják anti-aliasing-nak. Az eddigi GeForce kártyáknak is volt ilyen eljárásuk, de a közös vonásuk az volt, hogy nagyon megterhelték a kártyát, mert gyakorlatilag négyszer annyi képpontnak számolták ki a helyét, mint az eredeti képfelbontás, ami nagyobb felbontásoknál nagyon erősen lecsökkentette a kártya sebességét. Az NVIDIA cég kidolgozott egy olyan új eljárást, amely majdnem ugyanolyan tökéletes, mint a klasszikus anti-aliasing eljárás, és mondjuk egy Quake 3 vagy Half-Life esetén tovább növeli a kép valószerűségét azzal, hogy a legrondább lépcsőzetességeket letompítja, többé kevésbé elrejti. A módszer lényege az, hogy az eredeti képet renderelés után egyszerűen megkettőzi, és virtuálisan fél pixellel eltolja oldalsó és főlső irányokban. A képernyőn megjelenő képpont szine pedig az eredeti képpont és 4 szomszédos képpontjának súlyozott átlagából keletkezett szín lesz. Ezáltal az eredeti renderelési eljárás változatlanul hagyásával, mindössze egy kis többlet memória terheléssel, illetve egy nagyon gyors képszámító algoritmussal tudták elérni a csaknem tökéletes képalkotást. Aki GeForce3 kártyát használ, nyugodtan bekapcsolva hagyhatja az anti-aliasing kapcsolót anélkül, hogy attól kellene tartania, hogy a játék játszahatatlanná lassul. Azok a szerencsések, akik GeForce3 kártyát vesznek úgyis valamilyen komolyabb 1 GHz körüli géppel rendelkeznek, és a gyors képalkotás eleve biztosított a GeForce3 kártya már említett egyéb tulajdonságai következtében.

Az ötödik tulajdonság a Z vágás. A Z a 3D-s játékok, illetve grafika világában a kép mélységét jelenti. Minden a képernyőn megjelenő tárgy a képét a grafikai elemeinek renderelésekor kapja. Ha sikerülne valamilyen módon a renderelésre kerülő grafikai elemek számát csökkenteni, ez nagy mértékben növelné a kártya teljesítményét. Ezt valósították meg először az ATI Radeon kártyán. Egy okos kis algoritmus kiszámolta, hogy az adott grafikai elem egyáltalán megjelenik-e a képernyőn, ha valamilyen okból (például, mert eleve takarásban volt) nem jelent meg, már be sem küldte a képfeldolgozó eljárásba, hanem rögtön vette a következő grafikai elemet. Ha más névvel, és más belső eljárásokkal, de gyakorlatilag ugyan ezt az eljárást valósították meg a GeForce3-as kártyán, tovább növelve az amúgy is nagyteljesítményű kártya sebességét.

Érdemes-e megvenni?

Hát ez egy nehéz kérdés. Főleg az árcédulát nézegetve pl. a már említett Radeon kártya, vagy mondjuk egy GeForce2-es kártya is nagyon jó vételnek tűnik. Főleg, mivel az új kártya megjelenése hosszú távon biztosan még jobban leveri a konkurencia és a régebbi tipusok árait. Másrészről az XBox és a Geforce3 kártya szinte azonos grafikus rendszert kapott, ezért várható, hogy a közeljövőben robbanásszerűen megszaporodnak a Geforce3/Xbox lehetőségeit kiaknázó játékprogramok. Akinek most van elég pénze új gépre, és nem akar a gépéhez nyúlni vagy 2-3 évig, annak nyugodt szívvel tudom ajánlani, hogy ne GeForce2 Ultra, vagy Radeon kártyát vegyen, hanem inkább az új GeForce 3-ast. Na meg azoknak is, akinek mindig a legújabb cucc van a gépükben. A többi közönséges földi halandónak viszont azt tanácsolom, hogy gyűjtögessenek egy pár hónapig, és addigra biztosan piacon lesznek azok a játékok, amelyek tényleg használják is a kártya új lehetőségeit. Ha az NVIDIA ugyan azt az üzletpolitikát folytatja, mint eddig, akkor nagy valószinűséggel úgy is piacra dob majd egy olcsóbb verziót is, olyasmit mint a GeForce2 családnál az MX, így egy kis várakozással komoly pénzt lehet majd megtakarítani. Ha mégse lenne igazam, és nem készülne a GeForce3-nak olcsó változata, akkor is biztosan olcsóbb lesz a kártya pár hónap múlva. Szóval aki vár egy kicsit, biztosan jól jár.

Kattints, ha érdekesnek találtad a cikket!

További képek

  • NVIDIA GeForce3
  • NVIDIA GeForce3
  • NVIDIA GeForce3
  • NVIDIA GeForce3

HOZZÁSZÓLÁSOK

Még nincs hozzászólás, légy Te az első!