Graphics Core Next, czyli architektura przyszłości z przeszłością

gram.pl
2015/06/30 15:45

Dowiedzcie się, jakie są największe zalety uniwersalnej, skalowalnej i łatwej do ulepszenia architektury GCN firmy AMD.

Graphics Core Next, czyli architektura przyszłości z przeszłością

Kupując nowe karty graficzne, zazwyczaj myślimy, iż mamy do czynienia z zupełnie nowymi, często niepowiązanymi ze sobą rozwiązaniami. Przecież to kolejna seria z nowymi numerami, materiały reklamowe mówią o nowościach i większej wydajności, a niektórzy bardziej dociekliwi docierają nawet do nazw chipsetów - także zupełnie nowych, jak choćby w przypadku najnowszego dziecka AMD, czyli Fiji. I jest w tym sporo prawdy, bo owszem - nowe karty są szybsze, nowocześniejsze i nierzadko mocno różnią się od poprzedniczek pod względem konstrukcji.

Nie oznacza to jednak, że muszą być wyrwane z technologicznego kontekstu. Dobrym przykładem jest tutaj taktyka stosowana od lat przez AMD, które już w 2006 roku postanowiło oprzeć swoje konstrukcje kart graficznych na jednej architekturze - TeraScale. Począwszy od serii Radeon HD 2000 a skończywszy na HD 6000, wszystkie modele chipsetów i kart budowane były w oparciu o kolejne wersje tej samej architektury. Jednak dopiero wprowadzenie w 2011 roku zupełnie nowej architektury Graphics Core Next pozwoliło firmie rozwinąć skrzydła. Możecie w tym miejscu zapytać - i jest to całkiem naturalne - co dobrego jest w stosowaniu przez kilka lat tej samej bazowej "platformy"? Otóż o wiele więcej, niż większość z nas przypuszcza.

Unifikacja pewnych rozwiązań oznacza przede wszystkim dwie rzeczy - ogromną uniwersalność i równie dużą kompatybilność. Oczywiście architektura taka musi spełniać kilka istotnych warunków: powinna być skalowalna i rozwojowa, pozbawiona wszelakich "ślepych uliczek"; być bardziej wyznacznikiem kierunku rozwoju technologii, niż zamkniętym, skończonym rozwiązaniem. Przedsmak tego mieliśmy już w przypadku wspomnianego TeraScale, ale właśnie GCN jest tego doskonałym wręcz przykładem.

Architektura Graphics Core Next zadebiutowała już w 2011 roku wraz z premierą układów z serii Radeon HD 7000 i jeszcze przed oficjalną premierą wzbudziła ogromne zainteresowanie prasy fachowej oraz użytkowników. Nic w tym dziwnego - zarówno w teorii, jak i praktyce nowe rozwiązanie AMD znacznie lepiej, niż jakiekolwiek inne obecne na rynku potrafiło wykorzystać ogrom potencjału tkwiącego w coraz szybszych GPU. Co ciekawe, wielu ekspertów i sam producent twierdzili, że prawdziwy potencjał GCN zostanie nam objawiony dopiero w przyszłości. Takie obietnice słyszeliśmy niejednokrotnie. Tym razem jednak zostały spełnione. Jak więc wygląda obraz tej technologii z perspektywy kilku lat?

GCN w chwili debiutu było podstawą dla typowych, pecetowych kart graficznych dla graczy. W chwili obecnej mamy do czynienia z trzecią już wersją tej architektury (1.2), a układy oparte na GCN znajdziemy już niemal wszędzie, począwszy od popularnych i niedrogich APU, przez konsolowy układ w PS4 i Xbox One, układy w komputerach Apple, a skończywszy na najnowszej rodzinie super-wydajnych kart graficznych Radeon z chipsetem Fiji. W ciągu czterech lat architektura ta rozpowszechniła się w niebywałym stopniu, co zaś najważniejsze, dzięki temu zaczynamy wreszcie wyraźnie dostrzegać wszystkie jej zalety. Przyjrzyjmy się więc im nieco bliżej.

Zacznijmy od tego, co w dłuższej perspektywie czasowej jest najważniejsze dla nas, graczy. Na pewno można liczyć na długie wsparcie dla tej architektury. AMD na pewno jeszcze przez długi czas nie zrezygnuje z GCN, wszak póki co nawet nie zadebiutowały jeszcze wszystkie technologie mogące w pełni wykorzystać jej potencjał, jak choćby DirectX 12. Po drugie układy oparte na GCN są sercami konsol najnowszej generacji, a te jak wiemy zazwyczaj cieszą się długowiecznością na rynku. Do tego dochodzi swoiście "modułowa" formuła architektury, pozwalająca na relatywnie łatwą jej adaptację, czy poszerzanie o nowe technologie, a nie można też zapomnieć o kompatybilności wszystkich generacji sprzętu opartego na GCN.

Graphics Core Next pojawiło się w 2011 roku w Radeonach, zaś w 2013 zadebiutowało w dwóch najpopularniejszych konsolach oraz układach APU. Cztery lata, to w naszej branży naprawdę długi okres, a więc mnóstwo doświadczeń, które zdobyły studia tworzące gry podczas pracy z układami od AMD. Mając do czynienia ze spójną i progresywnie rozwijaną architekturą, twórcom gier o wiele łatwiej wykorzystywać zdobyte umiejętności przy pracy nad kolejnymi tytułami, a co za tym idzie zdecydowanie lepszą ich optymalizacją. Kluczowe znacznie może tutaj również mieć fakt, iż architektura ta wykorzystana została w najnowszych konsolach Sony i Microsoftu. Nie oszukujmy się - większość najlepiej sprzedających się i najpopularniejszych tytułów AAA tworzona jest głównie z myślą o rynku konsolowym. Doświadczenia zdobyte przez twórców gier na tym polu już teraz owocują coraz lepsza optymalizacją silników na konsolach, co przekłada się również na inny, nie mniej ważny aspekt. Zarówno konwersje, jak i kod pisany od nowa dla pecetów powinny równie dobrze działać na komputerach z kartami graficznymi opartymi na GCN.

GramTV przedstawia:

Nie każdy odczuwa potrzebę wymienia grafiki co dwa lata, a chciałby, by jego karta wciąż mogła radzić sobie z nowymi grami. Kolejna ważną kwestią jest więc duża kompatybilność technologiczna w obrębie całej rodziny kart graficznych wykorzystujących Graphics Core Next. Dzięki temu nawet posiadacze kilkuletnich Radeonów HD 7000 mogą cieszyć się wciąż dużą wydajnością swoich kart, zaś połączenie tej kompatybilności z modułową budową architektury sprawia, że ich GPU mogą korzystać z większości dobrodziejstw pojawiających się na przestrzeni lat, nowych technologii, takich jak chociażby Mantle. Już teraz doskonale widać, że na przykład Radeon R9 290X w chwili obecnej jest znacznie bardziej wydajny, niż jego ówczesny cenowy odpowiednik GeForce GTX 780. Co ciekawe, nie jest wykluczone, że po pojawieniu się DX12 te dysproporcje ulegną zwiększeniu.

Skupmy się teraz na kolejnym ważnym aspekcie architektury Graphics Core Next, czyli jej rozwojowym charakterze. Jest to mocno powiązane z kwestią już wcześniej poruszaną, czyli - użyjmy tu owego uproszczenia -modułowym charakterem GCN. Oznacza to nie mniej, niż zaprojektowanie architektury z myślą o implementowaniu nowych technologii. Ostatnie kilka lat doskonale zresztą pokazuje, jak ten proces przebiegał i przebiegać będzie.

Najważniejszym "kamieniem milowym" było z pewnością wprowadzanie przez AMD własnego API, czyli wspomnianego już Mantle, które w bardzo odczuwalny sposób zwiększyło szeroko pojętą wydajność kart graficznych. Co najważniejsze, zastosowanie tej samej architektury sprawiło, że wydajnościowymi zyskami cieszyć mogli się nie tylko posiadacze najnowszych wówczas kart AMD, ale nawet o kilka lat starszych Radeonów HD 7000. Firma nie zatrzymała się jednak w miejscu i już wkrótce zadebiutuje rozwijany w ramach Khronos Group Vulkan, czyli multiplatformowe API oparte na komponentach Mantle. AMD może z łatwością doposażać GCN w nowe komponenty i technologie, czego przykładami są system renderingu włosów TreesFX, dźwięk przestrzenny TrueAudio, czy opisywane w poprzednim tekście FreeSync, Frame Rate Targeting Control i Virtual Super Revolution. Oczywiście oznacza to tez pełną gotowość GPU AMD na nadejście DirectX 12.

Co nie mniej ważne, polityka AMD zakłada udostępnianie większości tych technologii powiązanych z GCN za darmo wszystkim zainteresowanym. Oznacza to, że nawet w przypadku konieczności implementacji sprzętowej pewnych rozwiązań (np. monitory z FreeSync) każdy producent sprzętu ma nieograniczony dostęp i możliwość wykorzystania technologii. Doskonałym przykładem tego, jak sprawdza się to w praktyce, jest też kolejna kwestia związana z FreeSync. Element tej technologii nazwany Adaptive-Sync stał się już jakiś czas temu częścią ogólnoświatowego standardu DisplayPort. Tak otwarta polityka zaowocuje zapewne w przyszłości kolejnymi podobnymi sytuacjami, co oczywiście powinno oznaczać profity dla posiadaczy sprzętu opartego na Graphics Core Next.

Na koniec pozostawiliśmy kwestię najważniejszą. GCN to przede wszystkim architektura przyszłościowa. Już kilka poruszonych powyżej tematów dobrze to udowadnia, jednak najlepiej widać to właśnie teraz, w erze coraz popularniejszego grania w rozdzielczościach większych niż 1080p, czyli standardowe Full HD. O ile bowiem w tym przypadku karty oparte na GCN są porównywalne z konkurencyjnymi odpowiednikami, o tyle zazwyczaj bez problemów osiągają lepsze rezultaty w 1440p i przede wszystkim wyznaczającej nowe standardy 4K. A pamiętajmy, że czeka nas wkrótce "rewolucja VR", w której ta przewaga może się okazać kluczowa.

Warto również wspomnieć o jeszcze jednym istotnym z punktu widzenia nas graczy aspekcie. Rozwój GCN i wykorzystanie technologii takich jak Mantle sprawia, że dużo rzadziej użytkownik zmuszany jest do szukania i instalowania nowych sterowników, co jest obecnie już niemal plagą w przypadku najważniejszych tytułów. O ile nie zajdą jakieś nieprzewidziane okoliczności, takie jak w przypadku ostatniego Batmana, czy Project Cars (co zresztą leży po stronie twórców), użytkownicy kart opartych na GCN mogą cieszyć się ich maksymalną wydajnością bez ciągłego ściągania i instalowania nowych sterowników. Nie ma też zatem ryzyka, że poprzednia generacja kart zostanie szybko zapomniana i będzie odstawała wydajnościowo.

Tekst powstał jako część wspólnej akcji marketingowej AMD i gram.pl

Komentarze
13
Usunięty
Usunięty
24/07/2015 11:01
Dnia 24.07.2015 o 10:57, ziptofaf napisał:

Też nie bez problemu, mogę łatwo znaleźć ci takie obszary że na 970tce ilość fps-ów spadnie do okolic 40 w FullHD :P Inna sprawa że w tym samym miejscu R9 280X będzie mieć poniżej 25. Cóż, inna generacja GPU, 280X nigdy nie miał rywalizować z 970tkami a "tylko" z 770tkami...

Wiadomo, ze jak sie postarasz to takie miejsca znajdziesz. Nie o to chodzi. Przez zdecydowana wiekszosc czasu 970 trzyma 60 klatek bez problemu. Przynajmniej na i7.

Usunięty
Usunięty
24/07/2015 10:57
Dnia 24.07.2015 o 10:50, Jester napisał:

Prosze takich bzdur nie rozprowadzac. "Kumpel" pewnie w opcjach ma ustawione max fps 30 no to w grze ma 30. W tej chwili 970 bez problemu ciagnie Wieska w 60 klatkach wraz z hairworksami.

Też nie bez problemu, mogę łatwo znaleźć ci takie obszary że na 970tce ilość fps-ów spadnie do okolic 40 w FullHD :P Inna sprawa że w tym samym miejscu R9 280X będzie mieć poniżej 25. Cóż, inna generacja GPU, 280X nigdy nie miał rywalizować z 970tkami a "tylko" z 770tkami...

Usunięty
Usunięty
24/07/2015 10:53
Dnia 24.07.2015 o 09:51, dback napisał:

Proszę o jakiekolwiek dowody słabej jakości sterowników AMD. Niech będzie to jakikolwiek portal, który pisze o problemach ze sterownikami. Bo ja akurat pracuje na obu platformach (nvidia i amd) i to zawsze jeśli są problemy ze sterownikami czy sprzętem to zawsze problem jest z zielonymi.

Ech, problemy jednak na dzień dzisiejszy istnieją. Spójrz chociażby na Project Cars: http://pclab.pl/art63572-10.html"Po pierwsze, nieco poprawiono optymalizację względem wersji beta, którą testowaliśmy w lutym. Po drugie, wydajność kart AMD wciąż pozostawia wiele do życzenia. Gigantyczne obciążenie procesora przez sterownik Catalyst powoduje, że Radeony wypadają wręcz fatalnie. Oczywiście, mowa o sytuacji, gdy jedziemy z przeciwnikami."Albo: http://www.purepc.pl/karty_graficzne/testy_procesorow_i_kart_graficznych_czegos_tutaj_nie_rozumiesz?page=0,4Ponownie, do szczęścia Radeonowi potrzebny jest odpowiednio mocniejszy procesor by rywalizować z GeForce''ami.A może najnowszy Fury X? http://www.purepc.pl/karty_graficzne/premierowy_test_amd_radeon_r9_fury_x_vs_geforce_gtx_980_ti?page=0,5To udane GPU ale znowu, widać że sterowniki wymagają poprawek - wydajność w 4k jest okej ale w 1080p już nie, ewidentnie CPU, nawet jeśli to podkręcony 4790K, wydaje się limitować te karty.Jasne, to się zmieni po premierze gier korzystających z DX12, Windows 10 też dostał ulepszone nieco sterowniki (20% wzrost fps-ów względem 8.1 w Project Cars właśnie). Ale tych jeszcze oficjalnie nie ma więc nie należy patrzeć jeszcze przez taki pryzmat. Przypomnę też że AMD ma gdzieś choćby użytkowników Linuxa (kiedy nieoficjalne sterowniki robione przez użytkowników są stabilniejsze niż oficjalne to wiesz że coś jest nie tak...Najnowsze Catalysty + Debian 8 + multiScreen w trybie extend = brak obrazu).>AMD od 2014 do dziś ma w swojej ofercie NAJMOCNIEJSZĄ

Dnia 24.07.2015 o 09:51, dback napisał:

kartę r9 295x2.

R9 295x2 to karta dwurdzeniowa. Ze wszystkimi konsekwencjami wynikającymi z Crossfire (podpowiem - spójrz na chyba wszystkie wychodzące sterowniki AMD i Nvidii i zobacz jak dużo jest łatek dla konkretnych gier w konfiguracjach MultiGPU. A do czasu wydania takiej łatki działa tylko jedna z dwóch kart...). Przy cenie przekraczającej 4000 zł możesz równie dobrze kupić 2x GTX980 albo nawet 2x AMD Fury. Które zeżrą razem to przestarzałe już GPU.Przypomnę też o poborze energii przekraczającym miejscami 400W.Zresztą... kosztujący o połowę mniej GTX980Ti nie jest jakoś dużo wolniejszy. A czasem szybszy: http://www.anandtech.com/show/9306/the-nvidia-geforce-gtx-980-ti-review/7Przy dwukrotnie niższym poborze energii, wyższym potencjale OC i bez konieczności czekania na sterowniki które dodadzą ci Crossfire w nowej grze. Ciężko mi wyobrazić sobie kogokolwiek kto kupowałby to GPU na chwilę obecną...>AMD ma mantle które daje mega kopa na sprzętach ze słabszym CPUI które jest wspierane przez jakieś 10-15 gier.Dodajmy - Projekt Mantle już został zamknięty: http://www.pcworld.com/article/2891672/amds-mantle-10-is-dead-long-live-directx.htmlInicjatywa była dobra, możliwe że to dzięki niej tak szybko wychodzi Vulkan i DirectX12 bo twórcy mogli zobaczyć jak duże są różnice. Ale realnie można wymienić z 4-5 gier w których to coś naprawdę dawało (aka różnice między płynnością a jej brakiem). A może się mylę, kojarzysz coś poza BF-em 4 i Thiefem gdzie na słabszym CPU miałeś wzrost z 30 fps do 60? Ogólny overhead sterowników jest lepszy na kartach Nvidii poza tymi właśnie kilkoma tytułami które mają Mantle.Na dowód niech będzie Wiedźmin 3: http://pclab.pl/art63116-48.htmlR9 290X:G3258: 20.8 fpsi3-4160 - 33.5 fpsFX-8350 - 32.7 fpsi5-4690K - 51.0 fpsGTX 970:G3258: 29.5 fpsi3-4150: 50.5 fpsFX-8350: 59.7 fpsi5-4690K: 73.2 fpsJasne, sama gra w pewnym stopniu faworyzuje GeForce''y ale jednak jeśli na jednej karcie do szczęścia i wszystkich bajerów w Ultra starcza mi Core i3 a na drugiej do tej samej płynności potrzebuję 4690K to jednak jest to odczuwalne.A może polskie Lords of the Fallen? http://pclab.pl/art60405-7.htmlNa 4690K masz już prawie identyczną wydajność między podkręconym GTX 970 i R9 290X. Ale znowu, wyniki na słabych CPU przemawiają na korzyść Nvidii.Oczywiście, można na to wręcz patrzeć jako inwestycję - kiedy wyjdzie DX12 który drastycznie zmniejsza obciążenie CPU to o wiele bardziej skorzystają na tym użytkownicy Radeonów właśnie z uwagi na większe problemy w tym zakresie. Ale ponownie, takich gier jeszcze nie ma.

Dnia 24.07.2015 o 09:51, dback napisał:

Nvidia jest zamknięta nawet na rzeczywisty świat wypuszczając uszkodzone 970ki i wmawiając, że to feature a nie bug. Fanbojom zielonych nvidia pluje w twarz a ci i tak będą zadowoleni, bo ciepły deszczyk pada.

Ech, to co mówisz jest prawdą. Jest tylko jedno ale - te uszkodzone 970tki i tak nie mają konkurencji. R9 290 jest wolniejszy (choć odrobinę tańszy). 390 porównywalny ale żre odpowiednio więcej energii elektrycznej i o podkręcaniu go jeszcze wyżej możesz zapomnieć. Jasne, ma te 8GB GDDR5 ale żadna z tych kart nie nadaje się do więcej niż 1080p więc to bez znaczenia.Ot, konkurencja jest rzeczą dobrą. Ale też nie ma róży bez kolców - Radeony mają swoje problemy. Tak samo GeForce''y. Po obu stronach są sterownikowe wtopy, nieudane karty i skopane projekty (Mantle jeszcze jakoś wyszło ale spójrz na takie TrueAudio).




Trwa Wczytywanie