AMD: Grafika na Xbox 720 będzie wyglądać, jak w Avatarze

I mowa tu oczywiście o filmie, a nie opartej na nim grze. Niejako przy okazji potwierdzałoby to teorię, że to właśnie AMD, które przejęło jakiś czas temu ATI, będzie dostawcą graficznego serca konsoli Xbox 720.

AMD: Grafika na Xbox 720 będzie wyglądać, jak w Avatarze

Informacja taka pojawiła się już na kilku blogach i serwisach, a jako źródło wskazywany jest nadchodzący sierpniowy numer Official XBOX Magazine. Ile w tym prawdy nie wiadomo, jednak wszędzie, niczym mantra, powtarzają się wypowiedziane przez pracownika AMD słowa, że Xbox 720 ma zaoferować generowaną w czasie rzeczywistym grafikę na poziomie tego, co widzieliśmy w filmie Camerona.

Ponadto Neal Robison, przedstawiciel firmy, stwierdził, że nowa konsola pozwoli na implementację znacznie bardziej zaawansowanych skryptów SI oraz posiadać będzie fizykę na niespotykanym dotąd poziomie.

Tyle plotek, czas się nad nimi chwilę zastanowić. To, że Xbox 720 wcześniej, czy później zadebiutuje jest faktem. Z tym, że grafika, fizyka i SI będą bardziej zaawansowane też zgodzi się zapewne każdy. Całkiem prawdopodobny jest też udział AMD w tym projekcie, choć firma oficjalnie tego nie potwierdza. Ale czy rzeczywiście grafika na następcy Xboksa 360 będzie na takim poziomie, jak w renderowanym przez lata Avatarze? Przyznam szczerze, że średnio chce mi się w to wierzyć. Z drugiej jednak strony informacje o wydajnościowych możliwościach planowanych na kolejne lata GPU sugerują kolosalny wzrost możliwości.

GramTV przedstawia:

Po raz kolejny wraca więc podstawowe pytanie - kiedy pojawi się nowa generacja konsol?

Komentarze
60
Usunięty
Usunięty
24/07/2011 17:39

http://gry.interia.pl/informacje/news/nadchodzi-przelom-w-branzy-gier,1671746Jeżeli te plotki się potwierdzą to ja za konsole " nowej generacji '' podziękujęnie cierpię dystrybucji cyfrowej a tu ma być jeszcze brak nośników danych,słabszy sprzęt i wszystko w necie - dziękuję,postoję.

Usunięty
Usunięty
24/07/2011 17:39

http://gry.interia.pl/informacje/news/nadchodzi-przelom-w-branzy-gier,1671746Jeżeli te plotki się potwierdzą to ja za konsole " nowej generacji '' podziękujęnie cierpię dystrybucji cyfrowej a tu ma być jeszcze brak nośników danych,słabszy sprzęt i wszystko w necie - dziękuję,postoję.

Olamagato
Gramowicz
22/07/2011 18:16
Dnia 22.07.2011 o 12:36, mronoth napisał:

me2 to akurat bardzo slaby przyklad :), bo gra ma wyjatkowo niskie wymagania jak na dzisiejsze czasy

Ma właśnie bardzo wysoką jakość kodu.

Dnia 22.07.2011 o 12:36, mronoth napisał:

wiele gier chodzi znacznie gorzej, np. me1 - w cytadeli przy wylaczonych dynamicznych cieniach mialem okolo 30fps

Konwersja ME1 na PC jest wyjątkowo spartoloną grą, chociaż to co było dobrze zrobione (kod zrobiony przez Bioware) działa podobnie jak w ME2. Na takim samym archaicznym sprzęcie miałem tyle samo klatek (około 25), a jak wiadomo nie pomagają jej w wygenerowaniu lepszej grafiki, ani choćby ilości klatek nawet czterordzeniowe pecetowe cuda z grafikami mającymi dziesięć razy wyższą wydajność.

Dnia 22.07.2011 o 12:36, mronoth napisał:

moze i da sie grac w 20fps na minimalnych ustawieniach w dzisiejsze gry na 6letniej karcie graficznej, ale co to za przyjemnosc

Jeżeli sprzęt spełnia te minimalne, to jest to różnica między zagraniem, a nie zagraniem w ogóle. A więc sporo większe niż między zagraniem z efektem, którego widzi 10% ludzi od zagrania bez niego. :)

Dnia 22.07.2011 o 12:36, mronoth napisał:

odnosnie wykorzystania gpu podtrzymuje to co napisalem wczesniej, wydaje mi sie, ze mylisz wykorzystanie gpu/cpu z optymalizacja kodu, mozna napisac gre wygladajaca beznadziejnie i do tego zle zoptymalizowana ktora bedzie wykorzystywac 100% podzespolow

Zgadza się. Można napisać kawałek kodu, który w ogóle nic sensownego nie będzie robił, a zatka każdy istniejący i przyszły sprzęt. Ale ja piszę właśnie, że o tym, że różnica jakości kodu zmienia bardzo wiele. Najlepiej to widać na grach z czasów premiery jakiegoś modelu konsoli oraz z czasów z jej końca. Łatwo się porównuje bo sprzęt identyczny.Dlatego moim zdaniem to co dzisiaj wydaje się, że potrzebuje super sprzętu za kilka lat potrzebuje po prostu trochę lepszego softu i nagle rzekomo niemożliwe staje się możliwe. Nie twierdzę tak bo tak to wydumałem, ale patrząc na to jak zmienia się oprogramowanie. Dlatego wydaje mi się, że 8 tys. operacji zmiennoprzecinkowych na piksel, to przy *dobrze napisanym sofcie* może być liczba wystarczająca do wyświetlania obrazu low-res na poziomie Avatara. A przecież nie wiemy o jakim sprzęcie był artykuł bo nikt go na oczy nie widział. Założyłem więc, że sprzęt ten będzie obliczeniowo porównywalny z dzisiejszymi grafikami z segmentu high-end na peceta. Może być jednak zwyczajnie lepszy lub dostosowany specjalnie do raytracingu.

Dnia 22.07.2011 o 12:36, mronoth napisał:

a teraz sa sprytnie fake''owane i gra moze wygladac znacznie lepiej przez to, ale nie ma to nic do tego w ilu % wykorzystywany jest hardware, jakbysmy przyjeli taki sposob definiowania tego to do 100% nigdy bysmy nie doszli

Moim zdaniem wykorzystanie sprzętu na 100% oznacza, że wszystkie układy logiczne pracują z maksymalną wydajnością obliczeniową w mniej więcej równym rozkładzie, czyli że nie ma tak, że jakiś układ pracuje na 100%, a inny na 70% bo coś. Dzisiejsze grafiki są wykorzystywane w ten sposób, że kilka najbardziej pracochłonnych efektów wyżyłowuje jakąś część układów na 100%, ale cała reszta działa sobie w najlepszym razie na pół gwizdka bo nie starcza już mocy.Po jakimś czasie okazuje się, że te wspaniałe pracochłonne efekty będą wykorzystywane realnie w kartach następnej generacji bo bez nich można osiągnąć ogólnie lepsze efekty za pomocą inaczej napisanego softu. (na przykład w ogóle uruchomić grę napisaną na mocniejszy sprzęt).

Dnia 22.07.2011 o 12:36, mronoth napisał:

w ogole nie wiadomo byloby jak to oceniac, bo w chwili gdy juz uznamy ze 100% zostalo wykorzystane to moze za 2 lata ktos wymysli jakis sprytny trik i grafika bedzie mogla byc 2x lepsza, i co wtedy? to co uznalismy za 100% bedzie teraz 50%? bez sensu

No właśnie o tym piszę. Dlatego nie da się obiektywnie ocenić stopnia wykorzystania układu graficznego. Zawsze po jakimś czasie znajdzie się soft, który udowodni, że da się osiągnąć sporo lepszy efekt mimo nadal wykorzystywania "tylko" 100% wydajności (oczywiście na zasadzie, że tak się nam wydaje).

Dnia 22.07.2011 o 12:36, mronoth napisał:

do cpu masz miernik wykorzystania w windowsowym task managerze

Który bazuje na czasie idle. A to bardzo słaby miernik wykorzystania bo możesz napisać soft, który dosłownie nic nie robi, a pokazywane będzie "100%" wykorzystania procka.

Dnia 22.07.2011 o 12:36, mronoth napisał:

takie same programy sa do gpu

I dlatego mają one dokładnie tę samą wadę.

Dnia 22.07.2011 o 12:36, mronoth napisał:

jak gra obciaza na 100% wszystkie shadery itd gpu czy rdzenie cpu to wykorzystuje hardware na maxa

Właśnie usiłuję Cię przekonać, że jedyne co naprawdę wykorzystuje na maksa to prąd z zasilacza. :)Czy jest to wykorzystanie układu graficznego w świetle tego, że takie same obciążenie pokazują dwa programy różniące się w grafice całą epoką? Mi się nie wydaje.

Dnia 22.07.2011 o 12:36, mronoth napisał:

i nie ma znaczenie jak gra jest zoptymalizowana i czy za 5 lat ktos wymysli wydajniejszy algorytm

Ależ codziennie ktoś udowadnia, że właśnie to ma kluczowe znaczenie. Tym bardziej, że skończyła się 20-letnia bajka z darmowym ulepszaniem wydajności softu za pomocą coraz szybszego sprzętu.




Trwa Wczytywanie