PhysX w GeForce'ach pojawi się w sierpniu

Adam "Harpen" Berlik
2008/07/25 08:13

Za niespełna dwa tygodnie Nvidia opublikuje kolejną wersję sterowników do kart graficznych GeForce. Dzięki nim możliwa będzie obsługa technologii PhysX w układach z serii 8xxx, 9xxx oraz GTX 200.

PhysX w GeForce'ach pojawi się w sierpniu

Pracownicy firmy Nvidia testują obecnie wersję beta sterowników pozwalających na wsparcie PhysXa - akceleratora fizycznego stworzonego przez koncern Ageia, który został jakiś czas temu wykupiony przez zielonych. Na razie działa on wyłącznie na GeForce'ach 9800 GTX oraz GTX 280 i GTX 260. Jednak w dniu premiery również posiadacze kart graficznych z serii 8xxx i pozostałych wchodzących w skład 9xxx będą mogli cieszyć się wspomnianą technologią.

Nvidia poinformowała właśnie, że finalna wersja nowych sterowników z certyfikatem WHQL zostanie oddana do dyspozycji użytkowników dokładnie 5 sierpnia.

GramTV przedstawia:

Komentarze
67
Usunięty
Usunięty
29/07/2008 21:30

> > Nie zgodzę się. W chwili, w której procesor obrabia fizykę konieczne jest jeszcze> przesłanie> > po szynie danych o wierzchołkach do karty graficznej. Ten transfer nie jest tani.> Patrząc> > przez analogię o ile VBO pomogły wydajności przetwarzania geometrii sądzę, że będzie>> > dokładnie odwrotnie. Fizyka będzie mogłba być liczona w czasie, który normalnie> byłby> > zmarnowany na oczekiwanie na przetworzone wierzchołki. Zatem rezultat może być taki,>> > że obliczymy 10-krotnie bardziej skomplikowaną fizykę nie spowalniając grafiki.>> Hm z tego co mi wiadomo (o OpenGL) to wszelkie listy wyświetlania i tak przechowywane> są w pamięci głównej. Czyli wierzchołki i związane z nimi prymitywy i kordynaty tekstur> i tak przesyła się do karty graficznej przy każdej klatce. Karta graficzna natomiast> przechowuje głównie tekstury. Odpal sobie starusieńkiego CSa i zobacz ile zajmuje w pamięci:> 400 MB to są własnie informacje o modelach i animacjach.stare dzieje. Zerknij na np. GL_ARB_vertex_buffer_object. Dzięki VBO możliwe jest umieszczenie tablicy wierzchołków w pamięci karty co eliminuje konieczność straty przepustowości szyny, jak napisałeś, co klatkę.> Z tego co ty napisałem, że rozumiesz karte graficzną jako urządzenie do ktorego wysyłasz> modele, program, wszystko, a potem dosyłasz input użytkownika.Dokładnie. Jeśli wrzucimy wierzchołki, tekstury, animacje itd. do pamięci karty (ew. jeśli mamy za mało pamięci na karcie zostanie użyta systemowa przez dostęp DMA - co jednak będzie b. wolne - dlatego ważne by np. dobierać poziom detali zależnie od pamięci karty) starczy posyłać nam koordynaty całych obiektów (zmieniające się np. w wyniku wejścia czy też działań AI) jako parametry shader''ów a całym renderowaniem sceny (łącznie z obliczeniem kolejnego kroku dla fizyki ciał sztywnych i cząsteczek) zajmie się karta graficzna.> Urządzenie o którym mówisz> to nie karta graficzna tylko komputer ;)10 lat temu nierealne było, że karta graficzna mogłaby robić rzeczy osiągane dziś przy pomocy shader''ów a jakość wyznaczana była przez ray-tracing. Czasy się zmieniają.Popieram NV w jej walce z Intelem. Intel został daleko z tyłu ze sztuczną architekturą CISC (co z tego, że rdzenie riscowe) i kilkoma marnymi core''ami. Najbardziej ciężkie algorytmy wykonywane równolegle na GPU i bez super drogiego cache''u wykonują się dziesiątki razy szybciej niż na procesorach dwukrotnie droższych od przyzwoitej karty graficznej.> Grafika w zasadzie oblicza jedynie efekty wizualne> czyli cieniowania fragmentow, kolorowanie pikseli etc.Kiedyś tylko wyświetlała piksele. Ewolucja.>> > np. kilkadziesiąt cykli zegara GPU - to biorąc pod uwagę, że mamy np. 64-128 shading>> > units możemy obliczyć w tym samym czasie ich kilkaset! Albo obliczyć tyle samo ale> przyspieszyc> > wyswietlanie grafiki o ileś procent.> To co w tym czasie będzie cieniować wierzchołki na ekranie?Nie w tym czasie. Po prostu karta graficzna czekając na wierzchołek do wyświetlenia traci więcej czasu niż gdyby sama obliczyła fizykę mając wierzchołek w swojej pamięci.

Usunięty
Usunięty
28/07/2008 20:02
Dnia 26.07.2008 o 00:55, soulcoder napisał:

Nie zgodzę się. W chwili, w której procesor obrabia fizykę konieczne jest jeszcze przesłanie po szynie danych o wierzchołkach do karty graficznej. Ten transfer nie jest tani. Patrząc przez analogię o ile VBO pomogły wydajności przetwarzania geometrii sądzę, że będzie dokładnie odwrotnie. Fizyka będzie mogłba być liczona w czasie, który normalnie byłby zmarnowany na oczekiwanie na przetworzone wierzchołki. Zatem rezultat może być taki, że obliczymy 10-krotnie bardziej skomplikowaną fizykę nie spowalniając grafiki.

Hm z tego co mi wiadomo (o OpenGL) to wszelkie listy wyświetlania i tak przechowywane są w pamięci głównej. Czyli wierzchołki i związane z nimi prymitywy i kordynaty tekstur i tak przesyła się do karty graficznej przy każdej klatce. Karta graficzna natomiast przechowuje głównie tekstury. Odpal sobie starusieńkiego CSa i zobacz ile zajmuje w pamięci: 400 MB to są własnie informacje o modelach i animacjach.Z tego co ty napisałem, że rozumiesz karte graficzną jako urządzenie do ktorego wysyłasz modele, program, wszystko, a potem dosyłasz input użytkownika. Urządzenie o którym mówisz to nie karta graficzna tylko komputer ;) Grafika w zasadzie oblicza jedynie efekty wizualne czyli cieniowania fragmentow, kolorowanie pikseli etc.

Dnia 26.07.2008 o 00:55, soulcoder napisał:

np. kilkadziesiąt cykli zegara GPU - to biorąc pod uwagę, że mamy np. 64-128 shading units możemy obliczyć w tym samym czasie ich kilkaset! Albo obliczyć tyle samo ale przyspieszyc wyswietlanie grafiki o ileś procent.

To co w tym czasie będzie cieniować wierzchołki na ekranie?

Usunięty
Usunięty
26/07/2008 16:49

>> > co rozumiesz przez "chip od fizyki"?>> to, że najnowsze gf mają osobny układ na pokładzie od obliczania fizyki, a gf 8xxx będą> miały te sprawę rozwiązaną programowo czyli będą zabrane zasoby potrzebne do czegoś innego.Nie wiem skąd taka wiadomość. Nie mają. Ze strony nvidii wyczytać można "NVIDIA will deploy PhysX on CUDA-enabled GPUs", stronka opisująca CUDA pokazuje, że jest wspierane od wersji 8xxx. Prosta fizyka (np. cząsteczek) była dostępna w SDK nvidii na shaderach 1.3. Fizyka to nie cuda (chociaż :) dziwnym trafem są to CUDA), tylko mnożenia i dodawania. Jednak ograniczenia shader''ów wcześniejszych wersji nie pozwalały na uruchamianie bardziej skomplikowanych programów (np. na początku nie było w ogóle pętli!).Zgodzę się tylko z tym, że jeśli karta jest raczej niskobudżetową pozycją, to fakt uruchomienia PhysX''a na GPU nie sprawi, że gry nagle zaczną płynnie działać.Tak dla ścisłości - 8xxx i 9xxx to ta sama architektura SPA (Scalable Processor Array) ze zunifikowanymi shader''ami. Dopiero seria, którą reprezentuje GTX280 przynosi zmianę w postaci SPA drugiej generacji. Najistotniejsze różnice (oprócz ogólnego usprawnienia architektury wszędzie po troszce) to większa liczba TPC (Texture Processing Clusters/Thread Processing Clusters - zależnie od trybu pracy - grafika vs obliczenia równoległe), oraz większa liczba SM (Streaming Multiprocessors, które dla NV są 8-core''owe - każdy core to tzw. SP (streaming processor; ew. thread processor)). SM występują per TPC i tak dla GF8/9 mamy 8 TPC, 2 SM per TPC razy 8 core''ów daje 128 SP, dla GTX280 mamy 10 TPC, 3 SM per TPC razy 8 daje 240 SP. Oznacza to przynajmniej w ujęciu analitycznym potencjalny wzrost mocy prawie dwa razy.Kolejna zmiana to architektura wielowątkowości, sprzętowy Thread Scheduler potrafiący zarządzać ponad 30 tysiącami wątków - zapewniając prawie optymalne wykorzystanie sprzętu; dalej mamy 512 bitowy interfejs pamięci, Hybrid Power i zarządzanie poborem prądu w ogóle; podwójna precyzja liczb zmiennopozycyjnych i wsparcie dla 10-bitowego koloru.Zwiększona precyzja obliczeń absolutnie nie przyda się w grach, gdzie symulacja fizyki obliczana jest zwykle odwrotnym Eulerem, nawet nie mid-point''em (no może czasami ktoś się pokusi o rozwiązywanie ODE metodami 2-go rzędu:)) czy metodami Runge-Kutty (co do symulacji np. cieczy, gazów itd. PDE są zdecydowanie za ciężkie by wychodzić poza rząd 2) - zresztą w grach zależy wszystkim na efektach, nie na super dokładności obliczeń. Reszta usprawnień przyniesie tylko jeszcze większą wydajność - nic poza tym.> Czyli nie włączy się tych efektów bez spadku fpsów na gf 8xxx, a na nowszych już spadek> będzie mniejszy bądź wcale zależy od tego jak ten wbudowany układ współgra z resztą.ze względu na wydajność kart zawsze będzie różnica.




Trwa Wczytywanie