Wiedźmin 3: Dziki Gon ze wsparciem dla DirectX 11 i PhysX

Mateusz Stanisławski
2013/03/02 18:44
82
0

Poznaliśmy kilka szczegółów na temat wykonania technicznego pecetowej wersji Wiedźmin 3: Dziki Gon. Na screenach gra prezentuje się wybornie i wszystko wskazuje na to, że w rzeczywistości nie będzie inaczej.

Wiedźmin 3: Dziki Gon ze wsparciem dla DirectX 11 i PhysX

Niemiecki serwis PC Games Hardware zdobył kilka soczystych informacji na temat warstwy graficznej Wiedźmin 3: Dziki Gon. Przede wszystkim dowiedzieliśmy się, że produkcja CD Projekt RED zrobi użytek ze wszystkich najważniejszych bajerów opartych na DirectX 11. Mowa tu między innymi o globalnym oświetleniu (ang. global illumination), teselacji oraz wygładzaniu krawędzi MSAA. Odnotujmy przy tym, że dotąd opublikowane screeny prezentują grę bazującą wyłącznie na DirectX 9.

Oczekujcie zmian również w sferze fizyki. „Dwójka” hulała na Havoku, teraz przyjdzie pora na technologię PhysX od NVIDIA. Możemy się spodziewać wodotrysków wykorzystujących system Apex (realistycznie zachowujące się ubrania jak na przykład w Mafii 2), zniszczalnego środowiska oraz zaawansowanej fizyki wody.

GramTV przedstawia:

Przypominamy, że premiera Wiedźmin 3: Dziki Gon odbędzie się w przyszłym roku. Gra na pewno pojawi się na komputerach osobistych oraz konsolach PlayStation 4.

Komentarze
82
Juri_gag
Gramowicz
15/04/2013 12:26

Ciekawe ile nvidia wybuliła za tego PhysX.... rozumiałbym jeszcze jakby ten physx był zoptymalizowany, ale nie on działa normalnie tylko na kartach od nvidii co jest porażką..... Co jest najbardziej śmieszne gdy nie ma się karty nvidii to liczy tego physx na procesorze.... tylko że fpsy spadają jak powalone na intelu a procesor i tak nie jest wykorzystywany w 100% ......

Numenpl
Gramowicz
04/03/2013 11:47
Dnia 03.03.2013 o 23:42, pawbuk napisał:

Ja nie twierdzę, że nie da się w ogóle grać na 6-letnim kompie w nowe tytuły - po prostu mam wątpliwości czy uruchomisz je w wysokich ust. graficznych i w FHD :D Ja po 4-latach praktycznie wymieniłem komputer, ale muszę przyznać, że nie był on jakimś monstrum już w momencie premiery :D

Mój też nie XD

pawbuk
Gramowicz
03/03/2013 23:42

Ja nie twierdzę, że nie da się w ogóle grać na 6-letnim kompie w nowe tytuły - po prostu mam wątpliwości czy uruchomisz je w wysokich ust. graficznych i w FHD :DJa po 4-latach praktycznie wymieniłem komputer, ale muszę przyznać, że nie był on jakimś monstrum już w momencie premiery :D

LubieWafle
Gramowicz
03/03/2013 22:56
Dnia 03.03.2013 o 14:05, PowrotBialegoWilka napisał:

Najwyższy czas przejść na DX11, gry nie powinny już obsługiwać starszych wersji DirectX''a, a co do PhysX to bardzo dobrze, że ten system dodadzą, (o tym marzyłem już przy Wiedźminie 2), producenci gier powinni do maksa wykorzystywać możliwości sprzętu, a radeon''owcy cóż muszą się obejść smakiem.

Hmm... ja mam możliwość użycia DX10 i sobie nie ponaużywałem go... :P W moim wypadku będzie potrzebna zmiana i karty graficznej, i systemu, więc cóż... cieszę się, że świat idzie do przodu, jednak szkoda, że z DX10 tak mało gier miało styczność. Człowiek kupił system i kartę graf. podniecony, że będą nowe doznania, a tutaj kilka gier tylko obsługuje ten system. DX11 - wiem, nowsza bajka i trzeba będzie zainwestować w unowocześnienie kompa. Wiem też, że moje żale nikogo nie interesują, jednak boli fakt, że DX10 zapowiadany jako "rewolucja" praktycznie nie był użyty.

Shinigami
Gramowicz
03/03/2013 22:49

http://www.eurogamer.net/articles/2013-03-01-the-witcher-3-no-qtes-a-50-hour-quest-no-xp-for-killing-only-for-questsPewnie było, ale zobaczcie sobie jak prezentuje się nowy wieśmak na screenach ;)

Numenpl
Gramowicz
03/03/2013 22:48

obecnie mój ma 4 lata i starczy mi jeszcze na jakieś 2 lata bo nie spodziewam się specjalnego skoku technologicznego względem nowych konsol (czyt: nie będzie nic czego na PC nie było ale wreszczie gry będą wreszcie 1080p a czy 30 lub 60 fps to zależy od silników graficznych)

pawbuk
Gramowicz
03/03/2013 22:42

Co jest dziwnego w tym, że gra, która wyjdzie za rok będzie miała wyższe wymagania niż gry sprzed 2 lat? ;DA Crysis 3...coż, to nie jest tylko gra, ale też benchmark graficzny mający sprzedać CryEngine 3 i tak go należy traktować :)Jeśli chcesz grać przez 6 lat na tym samym sprzęcie, to kup konsolę. Niestety, ale rzeczywistość jest taka, że na tym samym pececie 6 lat się nie pojedzie grając przy wysokich ustawieniach graficznych ;)

Numenpl
Gramowicz
03/03/2013 22:41

Największym problemem Physx są właśnie wymagania oraz końcowe efekty przy użyciu tego modelu fizyki. I szczerze pisząc, niewiele gier co to obsługuje daje znaczący efekt i w dodatku jeszcze mniej ma to poprawnie zaimplementowane przez co wymagania rosną drastycznie.Pierwszą grą która to wykorzystywała w odpowiedni sposób to stary Unreal Tournament 3 - physx działał na każdej karcie i nie wymagał zbyt wiele od proca. Ale problemem był fakt że poprzednik oferował to samo a korzystał z havoc''a. No i jak Borderlands 2 wyszedł to porównano działanie z kartami Nvidi vs AMD i co okazało się? Że nawet jak masz kartę nvidia to nie oznacza że będziesz miał lepsze fps''y w porównaniu do użytkownika z kartą AMD bo potrzeba silnego proca(Dla wyznawców teorii że część bajerów jest wtedy wył. uwaga w testach okazało się ->

Spoiler

BBBBBBBBBBBBBBBBBBUUUUUUUUUUUUUUUUUUUUUULLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLSSS SSSSSSSSSSSSSSSSSSSSSSSSSIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIITTTTTTTTTTTTTTTTTTTTTTT TTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTT!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!

)No i kwestia DX11 no na razie jedyne dobre przykłady implementacji z widocznym tego efektem to seria Dirt jak na razie bo reszta jeden góra 2 bajery i wymagania z kosmosu.

Szczep07
Gramowicz
03/03/2013 22:14

http://forum.gram.pl/forum_post.asp?tid=82454&pid=62

maniekk
Gramowicz
03/03/2013 22:11
Dnia 03.03.2013 o 21:57, Szczep_NML napisał:

> Dla Wiedźmina 2 przerzuciłem się z GeForce''a na Radeona i dla ładniejszej grafiki wywaliłem > 600zł. Teraz z powrotem do GeForce''a? :c A niby czemu masz się znowu przerzucac na GeForce''a?

Bo PhysX?

Szczep07
Gramowicz
03/03/2013 21:57
Dnia 03.03.2013 o 16:30, ZnaQ napisał:

Dla Wiedźmina 2 przerzuciłem się z GeForce''a na Radeona i dla ładniejszej grafiki wywaliłem 600zł. Teraz z powrotem do GeForce''a? :c

A niby czemu masz się znowu przerzucac na GeForce''a?

castlerock
Gramowicz
03/03/2013 20:34

i jeszcze jedna rzecz - kupiłem kompa 3 lata temu - wyszedł Skyrim siepałem sobie spokojnie na wysokich, to samo F:NV, AC 3, Rage, Dishonored, Mass Effect 3, Far Cry 3, Risen 2, wiedźmin 2, Metro, Two worlds 2 Battlefild 2 CoD-y wszystkie...i co kuźwa można było? Można. Nie było wyscigu zbrojeń a gry (w wiekszości) trzymały świetny poziom..tymczasem wyskakuje Crysis 3 z z tymi swoimi niesmiertelnymi wy...mi w kosmos wymaganiami, i proszę już CDP robi w majty i ciach...ich wiedźmin 3 bedzie jeszcze bardziej wszystkożerny....To jest...irytujące i ...ja tych Redsów jednak nie lubię.

castlerock
Gramowicz
03/03/2013 18:09
Dnia 03.03.2013 o 14:02, Xandrox napisał:

> ja wymienię bo mnie stac, ale powiedz to tysiącam dzieciaków którzy kasy na > to nie dostaną, cwaniaczku. Życie... będą grały w farmę na fejsie, albo inne symulatory farmy. Świat idzie do przodu - i tak już od dobrych kilku lat cały przemysł growy był hamowany przez konsole starej generacji...

O swieta naiwności...teraz natomiast będą ci rypac wymagania a la NASA bo next geny wyjdą. A ty jak głupi bedziesz leciał i wywalał kase na kolejne upgrady. Naprawde tacy naiwni jestescie? Jeszcze im przyklaskiwac?Tak jak mówiłem- mnie akurat stac i nową konsole i na na cały nowy piec....ale ludzi mi jakos zaczyna byc żal, bo w kraju bida zaczyna piszczeć ;)

castlerock
Gramowicz
03/03/2013 18:05
Dnia 03.03.2013 o 12:34, Merr123 napisał:

@UP I dobrze że dzieciaki kasy nie dostaną. Gra na 100% będzie miała pegi 18, więc to nie gra dla dzieciaków.

wbij sobie do głowy, ze gdyby w wiedźmina grali tylko ludzie 18+ CDP RED zwyczajnie poszliby z torbami.

ZnaQ
Gramowicz
03/03/2013 16:30

Dla Wiedźmina 2 przerzuciłem się z GeForce''a na Radeona i dla ładniejszej grafiki wywaliłem 600zł. Teraz z powrotem do GeForce''a? :c

kostus1234
Gramowicz
03/03/2013 15:58

> > PhysX?> >> > Boże, za co... -.->> A dlaczego nie? Dla mnie to świetna wiadomość.Dla mnie też to są bardzo fajne efekty :D

Dared00
Gramowicz
03/03/2013 15:51
Dnia 03.03.2013 o 09:03, castlerock napisał:

ja wymienię bo mnie stac, ale powiedz to tysiącam dzieciaków którzy kasy na to nie dostaną, cwaniaczku.

Well, trudno, nikt nie mówił, że gry wideo to tanie hobby.

Zgreed66
Gramowicz
03/03/2013 15:07
Dnia 03.03.2013 o 14:50, NemoTheEight napisał:

Majątek? Karty graficzne milionów nie kosztują.

Jeżeli mam 4870 stojącego za 200-250zł który jest na poziomie 7750. To sobie policz ile trzeba wyłożyć, aby mieć albo coś podobnego, albo sensowniejszego. Świetny biznes jak nic.

NemoTheEight
Gramowicz
03/03/2013 14:50

> > Ale DX9 ma być :)> Tylko się pytam, czemu miałbym wywalić niezły majątek na nową kartę ;)Majątek? Karty graficzne milionów nie kosztują.

PowrotBialegoWilka
Gramowicz
03/03/2013 14:05

Najwyższy czas przejść na DX11, gry nie powinny już obsługiwać starszych wersji DirectX''a, a co do PhysX to bardzo dobrze, że ten system dodadzą, (o tym marzyłem już przy Wiedźminie 2), producenci gier powinni do maksa wykorzystywać możliwości sprzętu, a radeon''owcy cóż muszą się obejść smakiem.

Xandrox
Gramowicz
03/03/2013 14:02

> ja wymienię bo mnie stac, ale powiedz to tysiącam dzieciaków którzy kasy na> to nie dostaną, cwaniaczku.Życie... będą grały w farmę na fejsie, albo inne symulatory farmy. Świat idzie do przodu - i tak już od dobrych kilku lat cały przemysł growy był hamowany przez konsole starej generacji...

Bracio
Gramowicz
03/03/2013 12:42
Dnia 03.03.2013 o 09:44, Tomitechnodrome napisał:

bajki opowiadasz Physx działa tylko na GF i niczym więcej Physx to oddzielny procesor na karcie graficznej GF

Oh really? https://developer.nvidia.com/physx-downloads pozdrawiam kolejnego forumowego "znafcę" :). Polecam także post Henrar''a

Zgreed66
Gramowicz
03/03/2013 12:41
Dnia 03.03.2013 o 12:34, Merr123 napisał:

więc to nie gra dla dzieciaków.

Ty chyba sam nie wierzysz w to co piszesz ;)

Draco0
Gramowicz
03/03/2013 12:35

PhysX to strzał w stopę. Havok jest o wiele lepszym wyborem. Pewnie NVIDIA musiała nieźle posmarować. Teraz będziemy mieli faworyzowanie produktów zielonych na których pewnie W3 będzie śmigał lepiej ze względu na optymalizację. Szkoda AMD,szkoda z tego względu,że często ich produkty są opłacalniejsze w stosunku cena/wydajność.PhysX dodaje kilka bajerów, które mają kosmiczne wymagania co jest nieopłacalne. Oczywiście można to wył. jeżeli komuś to będzie przeszkadzać. Jednak co z graczami,którzy mają produkty AMD ? Nie będą w stanie doświadczyć pełnych możliwości W3 co jest kompromitujące.Szlak mnie trafia, kiedy faworyzowane są większe,bogatsze korporacje. Dla porównania Crysis 3 został dobrze zoptymalizowany pod nowe procki AMD iii jak teraz mają się produkty Intela kosztujące tyle co wysokiej klasy PC do procka wartego ok 800 zł ?Zamiast tego mogli by skorzystać z technologi TressFX.Miałem w planach kupić nową kartę od AMD z serii HD8000, która ma pojawić się w tym roku. I co teraz ??? Dziękuję twórcom za to, że mają mnie w ....

Merr123
Gramowicz
03/03/2013 12:34

@UPI dobrze że dzieciaki kasy nie dostaną. Gra na 100% będzie miała pegi 18, więc to nie gra dla dzieciaków.

Rico32
Gramowicz
03/03/2013 11:09

GTS450 dawał radę z Mafią 2 na pełnych detalach z fizyką ustawioną na maxa w 1680x1050 więc horrendalnych wymagań nie widzę.Szkoda ,że ja tak nie uważam ,bo moja GTX 560 kręcona się dusiła w mafii z tym phyxem ,więc bajek nie opowiadaj ,że ta twoja karta graficzna dawała rade z phyxem bo to totalna bajka jest.

diabolo20
Gramowicz
03/03/2013 10:42

A to jest powód do cofania? Kiedy wychodził direx 9 też trzeba było wymieniać

CamillusSkywalker
Gramowicz
03/03/2013 10:19

Fajnie by było gdyby wykorzystali nową technologię AMD TressFX, do renderowania włosów wiedźmina, z wykorzystaniem GPU. Bardzo by to poprawiło wygląd jego włosów i ich fizykę. To działa na wszystkich kartach z DX11, także tych od Nvidi.

Henrar
Gramowicz
03/03/2013 09:51
Dnia 03.03.2013 o 05:05, Tomitechnodrome napisał:

ps4 nie ma i nie będzie miało DX10 ,Dx11 DX11.1 oraz PhysX

PhysX da się wykonać na procesorze (co nie da tych samych efektów, jak na GPU, ale da się). Na PS3 PhysX był liczony na Cellu a nie na RSX.

Dnia 03.03.2013 o 05:05, Tomitechnodrome napisał:

inaczej z x720 (pełne wsparcie dla DX10 ,Dx11 DX11.1 wiadomo Dx to wyłączna własność MS co do PhysX?nikt nie powiedział kto zrobił grafikę dla x720 więc czekam na pełna specyfikację nowego X

AMD robi układ i to jest już pewne. nVidia została wywalona z konsol, całkiem słusznie zresztą - nie pozwalali na jakąkolwiek modyfikację układu (PS3) i mieli strasznie wysokie ceny (pierwszy Xbox).

Tomitechnodrome
Gramowicz
03/03/2013 09:44

bajki opowiadasz Physx działa tylko na GF i niczym więcej Physx to oddzielny procesor na karcie graficznej GF

leszeq
Gramowicz
03/03/2013 09:42
Dnia 03.03.2013 o 09:03, castlerock napisał:

myslisz ze na samej karcie sie skończy? toz oautomatycznie trzeba bedzie zmienić zasilacz, prawdopodobnie płyte główna też a kto wie czy nie procek. w efekcie masz cały komp do wymiany. ja wymienię bo mnie stac, ale powiedz to tysiącam dzieciaków którzy kasy na to nie dostaną, cwaniaczku.

Akurat te "tysiące dzieciaków" nie potrzebują karty z DX11 do Wiedźmina, bo ta gra jest 18+ :]

Tomitechnodrome
Gramowicz
03/03/2013 09:40

DX11.1 , Dx11 to starocie

castlerock
Gramowicz
03/03/2013 09:03
Dnia 02.03.2013 o 20:58, zeed94 napisał:

Jeśli ktoś do tej pory nie ma karty ze wsparcie dx11 to chyba najwyższy czas by sobie taką sprawił.

myslisz ze na samej karcie sie skończy? toz oautomatycznie trzeba bedzie zmienić zasilacz, prawdopodobnie płyte główna też a kto wie czy nie procek. w efekcie masz cały komp do wymiany. ja wymienię bo mnie stac, ale powiedz to tysiącam dzieciaków którzy kasy na to nie dostaną, cwaniaczku.

diabolo20
Gramowicz
03/03/2013 08:15

Ważne że direx 11 wkroczy w pełni na PC-ty

Luki1133
Gramowicz
03/03/2013 08:14

Gra zapowiada się wspaniale i na pewno ją kupię, martwi mnie jednak jedna rzecz, A. Kiciński w wywiadzie powiedział: "...produkujemy gry na mocne, wydajne maszyny i konsole nowej generacji, a nie na stare laptopy." Dla mnie oznacza to że razem z grą będę musiał sobie kupić nowy komputer...A tak przy okazji mogliby takie wstępne wymagania sprzętowe określic żeby wiedzieć na co się przygotować ;-)

fenix00
Gramowicz
03/03/2013 05:20

> ps4 nie ma i nie będzie miało DX10 ,Dx11 DX11.1 oraz PhysX> inaczej z x720 (pełne wsparcie dla DX10 ,Dx11 DX11.1 wiadomo Dx to wyłączna własność> MS co do PhysX?nikt nie powiedział kto zrobił grafikę dla x720 więc czekam na pełna specyfikację> nowego XWidocznie producenci konsoli nie wiedzą co mówią :)

Tomitechnodrome
Gramowicz
03/03/2013 05:05

ps4 nie ma i nie będzie miało DX10 ,Dx11 DX11.1 oraz PhysXinaczej z x720 (pełne wsparcie dla DX10 ,Dx11 DX11.1 wiadomo Dx to wyłączna własność MS co do PhysX?nikt nie powiedział kto zrobił grafikę dla x720 więc czekam na pełna specyfikację nowego X

Tekatokikuta
Gramowicz
03/03/2013 01:52

Oszczędzanie na PS4 czas zacząć!

zzajac
Gramowicz
02/03/2013 23:56

No to tylko jeszcze TressFX i moze czupryna Geralda bedzie wygladala normalnie :D

ZubenPL
Gramowicz
02/03/2013 23:46
Dnia 02.03.2013 o 22:57, Jabot napisał:

Jeśli gra będzie miała physxa to na PS4 tego nie będzie bo nowa konsola Sony będzie posiadała układ AMD/ATI (więc jeśli myślicie że na PS4 pogracie sobie ze wszystkimi bajerami to się mylicie i jak widać nowa konsola już nie jest tak extra) a na kompie nie musicie go włączać.

Physx nie wymaga kart nvidi będzie współpracował z dowolnym procesorem :)

Jabot
Gramowicz
02/03/2013 22:57

Jeśli gra będzie miała physxa to na PS4 tego nie będzie bo nowa konsola Sony będzie posiadała układ AMD/ATI (więc jeśli myślicie że na PS4 pogracie sobie ze wszystkimi bajerami to się mylicie i jak widać nowa konsola już nie jest tak extra) a na kompie nie musicie go włączać.

IMPARTIAL92
Gramowicz
02/03/2013 22:28

Trochę smutno by było jakby Wiedźmin wychodził w tym roku, ale premiera jest na 2014 do tego czasu nVidia wypuści karty które w spokoju udźwigną phisx samodzielnie. Mój komputer z końca 2008, pul roku temu przeszedł upgrade chłodzenia psu i RAMu, podkręciłem co się dało. Jak dotąd nie mam kłopotów z odpalaniem gier, już nie chodzi na ultra, ale high/medium z najnowszymi tytułami jak Crysis 3. Wydaje mi się ze tak pociągnę cały ten rok do premiery ps4. Wyjdzie na to ze kompik będzie miał 5 lat. Kupie nowego na premierę Wiedźmina 3, ale nie myślę "upgrade specjalnie dla jednej gry" bo wiem ze jak wydam kasę rozsądnie to starczy mi na wiele lat zabawy. Upgrade będzie całkowity, zostawiam tylko budę PSU i chłodzenie.

fenix00
Gramowicz
02/03/2013 22:05

I po co ten lament ? Gra będzie gotowa to się zobaczy . Jedni już będą mieli next-gen konsolę , inni do tego czasu tak będą wymieniać karty w komputerze i tak . Prawie wszyscy chcą coraz lepszej grafiki ... postęp kosztuje.

diabolo20
Gramowicz
02/03/2013 22:01

Ludzie nadchodzą next geny a wy marudzicie że trzeba nową karte na direxe 11. Jeśli ktoś chce ciągnąć na radeonie 4870 czy geforce 260 przez 10 lat to gratuluje zdrowego rozsądku. Sam już wymieniłem radka na 6870 a za 2 lata wymiana na 9870:)

Shinigami
Gramowicz
02/03/2013 21:57
Dnia 02.03.2013 o 18:51, Henrar napisał:

PhysX? Boże, za co... -.-

Za darmo - no może nie całkiem ale prawie. Biedne konsole zaopatrzone w AMD nie ujrzą tych wspaniałych zapierających dech w piersi efektów! Chyba czas wywalić moje karty w CF na śmietnik - PhysX nachodzę! ;)

ZubenPL
Gramowicz
02/03/2013 21:50
Dnia 02.03.2013 o 21:40, Skomik napisał:

Akurat tak się składa, że miałem tą kartę w czasie premiery Wieśka 1 i faktycznie cięło już na początkowym filmiku :) Niestety nie miałem okazji przetestować jej na patchu 1.5.

Ja miałem w tedy 6600GT i jakoś na średnich w 1024x768 dawało radę :)

Usunięty
Usunięty
02/03/2013 21:40

> > > Lekka przesada ,podejrzewam , że ta gra spokojnie dobrze pójdzie na dzisiejszych>> > GF z> > > serii 6800 czy 6900> > Na GF z serii 6800 już żadna nowa gra nawet się nie włączy.> Dokładnie jak kolega mówi karty GF z serii 6800 już bardzo dawno temu miały swoją premierę.> EDIT: Nawet Wiesiek z 2007 roku by miał problem z tymi kartami.Akurat tak się składa, że miałem tą kartę w czasie premiery Wieśka 1 i faktycznie cięło już na początkowym filmiku :) Niestety nie miałem okazji przetestować jej na patchu 1.5.

TerrorHurtz
Gramowicz
02/03/2013 21:31

No to zaczyna się wymuszanie DX11, jakby powoli przygotowywali graczy pod next geny.

belzebubxxl
Gramowicz
02/03/2013 21:29

Sorry miało być z sreii 680 i 690

Zgreed66
Gramowicz
02/03/2013 21:24
Dnia 02.03.2013 o 21:09, ZubenPL napisał:

Ponieważ panowie od optymalizacji i sterowników zadbają by stare modele się nie sprawdzały :)

Niech mnie wycmokają, dobrze działa ;)

Fraq-u
Gramowicz
02/03/2013 21:24

> > Lekka przesada ,podejrzewam , że ta gra spokojnie dobrze pójdzie na dzisiejszych> GF z> > serii 6800 czy 6900> Na GF z serii 6800 już żadna nowa gra nawet się nie włączy.Dokładnie jak kolega mówi karty GF z serii 6800 już bardzo dawno temu miały swoją premierę. EDIT: Nawet Wiesiek z 2007 roku by miał problem z tymi kartami.

garczesjan22
Gramowicz
02/03/2013 21:20

W newsie wyraźnie pisze że przedstawione screeny pochodzą z wersji pod DirectX 9, wiec czemu niektórzy pytają czy gra będzie tylko i wyłącznie pod 11 ? Przeczytajcie przynajmniej informacje do końca zanim zadacie "dziwne"pytanie.

ZubenPL
Gramowicz
02/03/2013 21:11
Dnia 02.03.2013 o 21:08, belzebubxxl napisał:

Lekka przesada ,podejrzewam , że ta gra spokojnie dobrze pójdzie na dzisiejszych GF z serii 6800 czy 6900

Na GF z serii 6800 już żadna nowa gra nawet się nie włączy.

ZubenPL
Gramowicz
02/03/2013 21:09
Dnia 02.03.2013 o 21:08, Zgreed66 napisał:

> Ale DX9 ma być :) Tylko się pytam, czemu miałbym wywalić niezły majątek na nową kartę ;)

Ponieważ panowie od optymalizacji i sterowników zadbają by stare modele się nie sprawdzały :)

belzebubxxl
Gramowicz
02/03/2013 21:08

,, Żeby go sobie zobaczyć "na full" to de facto trzeba posiadać dwie karty od Nvidii ''''Lekka przesada ,podejrzewam , że ta gra spokojnie dobrze pójdzie na dzisiejszych GF z serii 6800 czy 6900

Zgreed66
Gramowicz
02/03/2013 21:08
Dnia 02.03.2013 o 21:03, ZubenPL napisał:

Ale DX9 ma być :)

Tylko się pytam, czemu miałbym wywalić niezły majątek na nową kartę ;)

Usunięty
Usunięty
02/03/2013 21:06

... Co po niektórzy w ogóle nie myślą zanim coś napiszą. Wsparcie DX11 =/= wymaga tylko i wyłącznie DX11.

Selv
Gramowicz
02/03/2013 21:04

MSAA to jest bajer DX11? Od kiedy? :pA o SweetFX słyszeli? ;p

belzebubxxl
Gramowicz
02/03/2013 21:04

Ja Wiedzmina 2 przeszedłem na GF 9800 GT (ustawienia średnio-wysokie) Ha i co? W przyszłym roku mój komp będzie miał 4 lata ,więc kupuje nowy i równocześnie z myślą o Nowym Wieśku ,żeby zagrać w najwyższych możliwych ustawieniach.

ZubenPL
Gramowicz
02/03/2013 21:03
Dnia 02.03.2013 o 21:00, Zgreed66 napisał:

> Jeśli ktoś do tej pory nie ma karty ze wsparcie dx11 to chyba najwyższy czas by sobie > taką sprawił. Dlaczego niby jak mi stary 4870 spokojnie starcza? ;p

Ale DX9 ma być :)

Zgreed66
Gramowicz
02/03/2013 21:00
Dnia 02.03.2013 o 20:58, zeed94 napisał:

Jeśli ktoś do tej pory nie ma karty ze wsparcie dx11 to chyba najwyższy czas by sobie taką sprawił.

Dlaczego niby jak mi stary 4870 spokojnie starcza? ;p

zeed94
Gramowicz
02/03/2013 20:58

Jeśli ktoś do tej pory nie ma karty ze wsparcie dx11 to chyba najwyższy czas by sobie taką sprawił.

Zgreed66
Gramowicz
02/03/2013 20:58
Dnia 02.03.2013 o 20:54, ZubenPL napisał:

GTS450 dawał radę z Mafią 2 na pełnych detalach z fizyką ustawioną na maxa w 1680x1050 więc horrendalnych wymagań nie widzę.

Biorąc pod uwagę, ze to było ~3latka temu, to nawet nawet.

ZubenPL
Gramowicz
02/03/2013 20:54
Dnia 02.03.2013 o 19:25, Lordpilot napisał:

2) ten silnik ma horrendalne wymagania sprzętowe - z gry na grę coraz większe :/ Żeby go sobie zobaczyć "na full" to de facto trzeba posiadać dwie karty od Nvidii. Tak było już przy Mafii 2 (premiera w 2010 !)

GTS450 dawał radę z Mafią 2 na pełnych detalach z fizyką ustawioną na maxa w 1680x1050 więc horrendalnych wymagań nie widzę.

Darkstar181
Gramowicz
02/03/2013 20:22
Dnia 02.03.2013 o 20:16, oxygar napisał:

I teraz niech się wypowiada każdy, kto mówił jaką to Wiedźmin będzie miał słabą grafikę, patrząc na poprzednie screeny z gry.

Punkt dla ciebie.Zaraz będą jęki że mało kto ma karty ze wsparciem dx11.

Oxygar
Gramowicz
02/03/2013 20:16

I teraz niech się wypowiada każdy, kto mówił jaką to Wiedźmin będzie miał słabą grafikę, patrząc na poprzednie screeny z gry.

Lordpilot
Gramowicz
02/03/2013 20:08

> Eeee ... chodzi o silnik " Wiedźmina 2 "? Nie. Chodzi mi o Physx

Darkstar181
Gramowicz
02/03/2013 20:01
Dnia 02.03.2013 o 19:54, castlerock napisał:

czyli że jak znowu sobie nie pogram tak jak w crysis 3 bo moja karta dx11 nie ma?! kuźwa pare lat był spokój w tym wyscigu zbrojeń sprzetowych, bo konsole troche towarzycho usadziły - teraz znowu sie zaczyna bo wychodzi nowa generacja konsol.....szczerze mówiac, zaczynam sie wk..... wkurzać.

Tia, bo po 8 latach w końcu wychodzą nowe konsole.Świat nie powinien stać w miejscu.

AXX0
Gramowicz
02/03/2013 20:00

Era DX9 przemija. Wsparcie dla WinXP od strony MS kończy się w 2014 właśnie. Coraz mniej GPU DX9 daje radę przy coraz to nowszych grach. X360 też swoje zrobił w tej sprawie. To tylko takie moje uświadomienie co niektórym rozwoju techniki.

castlerock
Gramowicz
02/03/2013 19:54

czyli że jak znowu sobie nie pogram tak jak w crysis 3 bo moja karta dx11 nie ma?!kuźwa pare lat był spokój w tym wyscigu zbrojeń sprzetowych, bo konsole troche towarzycho usadziły - teraz znowu sie zaczyna bo wychodzi nowa generacja konsol.....szczerze mówiac, zaczynam sie wk..... wkurzać.

Rayearth
Gramowicz
02/03/2013 19:54

> PhysX?> Boże, za co... -.-Za małpiego Havoca/

lis_23
Gramowicz
02/03/2013 19:47

Dnia 02.03.2013 o 19:25, Lordpilot napisał:

2) ten silnik ma horrendalne wymagania sprzętowe - z gry na grę coraz większe :/ Żeby go sobie zobaczyć "na full" to de facto trzeba posiadać dwie karty od Nvidii. Tak było już przy Mafii 2 (premiera w 2010 !), tak było przy Arkham City. Nie inaczej będzie w tym wypadku.

Eeee ... chodzi o silnik " Wiedźmina 2 "?ja przeszedłem grę na maxa w FHD na Radeon 4870.

Elton1
Gramowicz
02/03/2013 19:46

To utwierdza mnie w przekonaniu zakupu PS4. Wydam 2 razy mniej niż na upgrade komputera i będę miał spokój na co najmniej 5 lat. Wiedźmin jako exclusive PC by mnie od tego odciągnął, ale będzie też na konsolach.

Laston
Gramowicz
02/03/2013 19:46

Spoko, nie da się oprzeć gry na PhysX bo by mogła chodzić tylko na komputerach z GeForcami i tych z NASA. Havok pewnie będzie hulał jak przedtem + efekty PhysX jako opcja (cuś takiego jak w Borderlands 2).

beny00747
Gramowicz
02/03/2013 19:42

> PhysX?>> Boże, za co... -.-Też jestem załamany ;(((((((

vegost
Gramowicz
02/03/2013 19:37

Havok przede wszystkim nie potrzebuję mocnego sprzętu, żeby móc oferować fajną fizykę. PhysX musi mieć mocną grafikę i mocny procesor. Już nie raz się przekonałem, że bez tego nie ma możliwości o graniu płynnie. Co do newsa, super. Wychodzi na to, że tym razem stary Quad i GTS 250 nie da rady Wiedźminowi. No chyba, że na DX9 bądź 10 o ile będzie wspierany. Dla jednej gry kupować nowy komputer ? No nie wiem.

Lordpilot
Gramowicz
02/03/2013 19:25

> A dlaczego nie? 1) Licencja należy do Nvidii, co oznacza że w wersji PC posiadacze Radeonów od AMD będą znowu w czarnej dupie.2) ten silnik ma horrendalne wymagania sprzętowe - z gry na grę coraz większe :/ Żeby go sobie zobaczyć "na full" to de facto trzeba posiadać dwie karty od Nvidii. Tak było już przy Mafii 2 (premiera w 2010 !), tak było przy Arkham City. Nie inaczej będzie w tym wypadku.Havok, owszem nie jest tak spektakularny, ale jest dużo mniej sprzętożerny i nie faworyzuje danego sprzętu. Mimo wszystko dobrze, że informują o tym grubo przed premierą - człowiek się zdąży psychicznie przygotować na wyłaczenie części fajerwerków ;-)ps. Jako silnik fizyki najchętniej widziałbym euphorię, ale cóż - nie tym razem ;-)ps2. Z czystej ciekawości - DX 11 będzie opcjonalne, czy "must have" ? Wspominali gdzieś o tym ?

Henrar
Gramowicz
02/03/2013 19:10
Dnia 02.03.2013 o 19:01, Jeffero napisał:

A dlaczego nie? Dla mnie to świetna wiadomość.

Dla posiadaczy kart graficznych jednego producenta. Havok jest o wiele lepszy, bo nikogo nie faworyzuje.

Spoiler

Tak, wiem, że da się włączyć część efektów na procku

diabolo20
Gramowicz
02/03/2013 19:06

Dla mnie także:)

Jeffero
Gramowicz
02/03/2013 19:01

> PhysX?>> Boże, za co... -.-A dlaczego nie? Dla mnie to świetna wiadomość.

Zgreed66
Gramowicz
02/03/2013 18:54

Global Illumination? :>Mam nadzieję, że będzie jak z grami Square Enix, że będzie to dostępne także dla kart DX10.1 :>

Henrar
Gramowicz
02/03/2013 18:51

PhysX?Boże, za co... -.-