Sprzęt dla opornych – karty graficzne (część 2)

MBI
2006/06/17 15:00

Dylematu ciąg dalszy, czyli nVidia vs ATI.

Dylematu ciąg dalszy, czyli nVidia vs ATI.

Witamy w kolejnej części artykułu o kartach graficznych. Do tej pory rozwiązaliśmy tylko kwestię wyboru złącza. Użytkowników AGP czeka nieuchronna przesiadka na płyty główne, wyposażone w przynajmniej jedno PCI-Express x16. Sprzęt z AGP wciąż się ukazuje, ale jest już go na rynku nowości coraz mniej. Dodatkowo w przyszłym roku pojawi się Vista, a wraz z nią DirectX 10 i Shader Model 4.0. Microsoft zapowiada przełom w dziedzinie grafiki, co przynajmniej w części potwierdzają filmy prezentujące możliwości Crysis, bazującego już na tych bibliotekach. Nowe karty obsługujące DirectX 10, jeśli w ogóle będą dostępne w wersji z AGP, to pojawią się z opóźnieniem i w znacznie mniejszym wyborze niż te wyposażone w nowe złącze. Pewni możemy być też, że w nowo zakupionym akceleratorze znajdziemy układ nVidii lub ATI. Firmy te zdominowały rynek w momencie wprowadzenia jednostek wykonawczych T&L, odpowiedzialnych za obliczenia geometryczne i kalkulacje oświetlenia, a pierwszą kartą wyposażoną w nie był GeForce 256. Akcelerator, którego nazwa pochodzi od słów Geometry Force, ukazał się w 1999 roku i wywołał małe trzęsienie ziemi. Karty firm Matrox, S3, czy twórcy kultowego Voodoo – 3dfx, nie były w stanie dorównać układowi nVidii, co skończyło się bardzo źle dla tych producentów. Jedynie kanadyjskiej ATI udało się zaprojektować chip sprawnie obsługujący T&L – Radeona 256 – i dzięki temu dzieli dziś rynek układów graficznych z nVidią. W 2001 r. światło dzienne ujrzał GeForce 3, wraz z wbudowanymi jednostkami Pixel i Vertex Shader i był on pierwszym układem zasługującym na miano procesora graficznego (GPU – Graphics Processing Unit). GPU prawie w pełni przejmował od procesora komputera zadanie tworzenia grafiki 3D, które odbywało się na zasadzie potoku renderującego. Stanowi on jakby oddzielny miniprocesor wewnątrz układu graficznego, który podczas jednego cyklu zegara karty zajmuje się obróbką jednego piksela obrazu. W skład potoku wchodziły jednostki Pixel Shader, Vertex Shader, TMU i ROP. Aktualnie architektura GPU zmierza w kierunku unifikacji, czyli połączenia procesorów cieniowania. Najnowsze układy ATI w serii R X1xxx posiadają specjalny układ zarządzający podziałem pracy jednostek PS, ROP i TMU. Natomiast w kartach nVidii mimo, że te części układu graficznego działają niemalże niezależnie, wciąż tworzą pewien rodzaj potoku. Z tą ideologią mają zerwać chipy oparte na DirectX 10.

Ile fabryka dała. Wybór akceleratora powinno ułatwić porównanie wybranych modeli pod względem ceny i ich osiągów. Do zestawienia użyto wyników ogólnych z programu do testowania wydajności - 3DMark05. Dane są przybliżone i mają charakter orientacyjny. Dylematu ciąg dalszy, czyli nVidia vs ATI., Sprzęt dla opornych – karty graficzne (część 2)

Najbardziej zawansowane technicznie są aktualnie układy ATI X1xxx i GeForce7xxx. Decydując się na zakup nowej karty powinniśmy w pierwszej kolejności wybierać spośród tych modeli, zwłaszcza że najtańsze Radki X1300 można kupić już od 300zł, a duża ilość modeli akceleratorów na rynku, pozwala na zakup kart z tych serii w każdym przedziale cenowym. Ofertę dobrze uzupełniają układy GF6xxx i ATI X8xx, przy czym należy pamiętać, że te ostatnie obsługują starszą specyfikację shaderów. Musimy też zwrócić uwagę na wielkość kart graficznych, często wyposażonych w bardzo duży radiator, który może utrudnić montaż karty na płycie głównej. Wydajne akceleratory pobierają bardzo dużo mocy, więc niezbędny może okazać się zakup dobrego zasilacza (przynajmniej 400 watów), zaopatrzonego we wtyczkę zasilającą dla kart PCI-Express.

GramTV przedstawia:

Co dwie głowy to nie jedna.

Pomysł na wykorzystanie dwóch akceleratorów w jednym komputerze znamy z 1998 roku, dzięki nieistniejącej już firmie 3dfx i pracujących w duecie kartach Voodoo2. Pół roku później ukazał się ATI Rage Fury MAXX z dwoma układami Rage 128 Pro, lecz nie odniósł sukcesu ze względu na wysoką cenę. Żywot pomysłu firmy 3dfx zakończyło na pewien czas pojawienie się standardu AGP, który nie przewidywał możliwości pracy dwóch takich złącz w jednym systemie. Dopiero pojawienie się PCI-Express pozwoliło na powrót do technologii SLI, którą nVidia posiadała już parę lat od momentu przejęcia 3dfx. Oprócz odpowiedniej płyty głównej z dwoma PCI-E i chipsetem obsługującym SLI, potrzebujemy dwóch takich samych kart z rodziny GF6xxx lub GF7xxx przystosowanych do pracy w duecie, spinanych ze sobą za pomocą mostka służącego do komunikacji między kartami. GF6600 i GF6600LE, ze względu na słabszą wydajność, nie wymagają użycia mostka. ATI po złych doświadczeniach z Rage Fury MAXX, zwlekała z wypuszczeniem własnego rozwiązania dla dwóch akceleratorów, jednak rynkowy sukces konkurencji zmusił ATI do przygotowania odpowiedzi na SLI. Platforma Cross Fire, oprócz płyty głównej, wymaga specjalnej karty w wersji CrossFire Edition i drugiej zwykłej karty PCI-E. Akcelerator CFE wyposażony jest w procesor Xilinx oraz gniazdo DMS do podłączenia cyfrowego kabla, którym obraz wędruje z jednej karty do drugiej. W przypadku obydwu rozwiązań, niezbędny może okazać się też odpowiedni zasilacz (przynajmniej 500 watowy), wyposażony w dwie wtyczki zasilające dla kart PCI-E, co dodatkowo zwiększa koszt budowy platformy. Jak łatwo policzyć nie jest to tania zabawka, jednak dzięki spadającym cenom płyt głównych SLI i Cross Fire (poniżej 500zł), staję się powoli coraz bardziej przystępna.

Za tydzień, w ostatniej części artykułu, jeszcze parę słów o SLI i CrossFire wraz porównaniem osiągów tych platform, i kwot które musimy na nie przeznaczyć. Powiemy także od czego zależy wydajność akceleratorów i jak ją poprawić oraz, na koniec, coś o sterownikach i ustawieniach kart.

Słowniczek. ROP (Render Out Pixel) – Jednostka zajmująca się końcową obróbką piksela, kompresją koloru, stosowaniem techniki FSAA oraz zapisaniem wyniku do pamięci RAM karty graficznej. TMU (Texture Mapping Unit) – Jednostki teksturujące zajmujące się nakładaniem tekstur w procesie renderingu. Xilinx – Specjalny procesor umieszczony na kartach Cross Fire Edition zawierający 8000 programowalnych bloków logicznych, własną pamięć oraz kilka specjalnych jednostek obliczeniowych. których zadaniem jest scalanie obrazu generowanego przez dwie karty.

Komentarze
42
Usunięty
Usunięty
22/06/2006 08:20

Chętnie bym przeczytał sobie pierwszą część, tylko nie wiem gdzie on jest. A ten był nie zły.Pamiętam jak pierszy Gf czyli 256 był fenomenem i kumpel non stop o nim majaczył "oj gdybym miał te 1400 zł to bym sobie go kupił " :D.

Usunięty
Usunięty
22/06/2006 01:29
Dnia 19.06.2006 o 00:48, Czedwik napisał:

Mam małą uwagę. Może na kolejny artykuł trzeba by czekać dłużej, ale niech będzie dłuższy? Według mnie to lepszy pomysł. Lepiej dać jeden większy artykuł zamiast dwóch mniejszych. Co do samego artykułu to jak zwykle najbardziej przydatne są według mnie tabelka z porówaniem i słowniczek.

... od autora...kwestia dłuższych artykułów trafiła na warsztat. Jeśli w tydzień po ostatniej częścii o kartach graficznych nie pojawi się arykuł z cyklu "dla opornych", znaczy że sugestia została została wprowadzona w życie.PS. Janas musi odejść!!!

Usunięty
Usunięty
19/06/2006 23:26
Dnia 18.06.2006 o 14:20, Choochoo napisał:

Niepotrzebna tabelka z testami w 3dmarku bo ich obiektywizm jest raczej wątpliwy :D. Ludzie znający się i dbający o swój portfel i tak wybiorą kartę pokroju GF 7600GT bądź Radka X1800GTO (no może jeszcze GF 7800/7900GT) bo do grania nadają się świetnie, a GF 7900GTX to juz raczej przesada :D.

...od autora... i zrobią rozsądnie. GF7900GTX został podany w tabieli w celach orientacyjnych jak kształtują się ceny do osiągów, a nie jako najlepsza propozycja zakupu. Ten artykuł jest właśnie po to, aby dać czytelnikowi informacje przydatne m.in. do rozsądnego i zaplanowanego wydania pięniędzy.




Trwa Wczytywanie