Jaki zasilacz do 9800gtx

Nie był bym tego tak pewny, coś czuje że G200 znowu skopie tyłki ATI/AMD, ale nie gadajmy o czymś czego jeszcze nie ma, jak wyjdą te karty to wtedy będzie wiadomo co jest lepsze, teraz nie wiadomo.

Bądź co bądź układ ma być 2x większy od g92 powierzchniowo, tak więc musi być dużo wydajniejszy, a czy wodne chłodzenie będzie w standardzie zależeć będzie tylko od rozsądku nvidii :wink: (ewentualnie marne zegary mieć będzie).

:expressionless: Nie no, ale AMD na pewno nie zechce zostać w tyle, poza tym do nowego HD 4870 nawalono tyle rzeczy (podwojono ROP-y, zwiększono liczbę Unified Shaders i usprawniono ich działanie, dodano GDDR5), że NA PEWNO nie będzie wolniejszy.

Tyle samo ROP-ów jest co w HD3850/3870 czyli 16.

Miała być szyna pamięci 512bit a nadal jest 256bit

W HD 3850/3870 procesorów strumieniowych jest 320 a HD4850/4870 ma ich 480

HD4870 ma większe taktowanie rdzenia i shaderów od HD3870

w HD4850 zastosowano DDR3 a w HD4870 DDR5.

Sorki, pochrzaniło mi się, to ilość TMU podwojono :slight_smile:

To że dodano nowe rzeczy to żaden postęp, postęp to był wtedy kiedy Nvidia mimo wysokich zegarów przegrywała z Ati które miało mniejsze zegary ale nadrabiało to architekturą GPU. Teraz jest dokładnie odwrotnie. Módlmy się by wreszcie AMD wymyśliło coś nowego zarówno jeśli chodzi o CPU jak i GPU bo jeśli padnie nie dość że będziemy mieli monopol duetu Intel+Nvidia: sporo wyższe ceny, zastój na rynku. Nie rozumiem dlaczego kiedyś AMD I ATI mając sporo mniej pieniędzy na badania od konkurencji potrafili coś konkretnego stworzyć a teraz stoją właściwie w miejscu.

Nie jest odwrotnie bo nvidia ma oddzielne taktowanie shaderów od tmu i rop’ów, a to shadery głównie odpowiadają za wydajność w aktualnych grach przy ustawionych wysokich detalach. Dodatkowo większość gier jest optymalizowana bardzije pod nvidie, przez co nie korzystają z możliwości złożonych shaderów ati (i chodzą przez to bardziej tak jakby było ich 64, a nie 320 :P), no i te oszustwa nvidii w kwestii wyświetlanej grafiki… Warunki te są spełnione np w CoJ, czy w Bioshocku i odrazu widać że 3870 to układ równie wydajnych co 8800gts… no ale grafiki nie kupuje się aby grać w 2 gdy, dlatego szczególnie usprawnienie tych shaderów i dodatkowe tmu powinny dać dużego kopa ati, no nie mówiąc o tym że shaderów też ma być ponoć więcej i śladem nvidii taktowanie shaderów zostanie oddzielone od reszty gpu co też jest dobrym pomysłem.

“a to shadery głównie odpowiadają za wydajność w aktualnych grach przy ustawionych wysokich detalach”

wysokie detale nie mają nic do rzeczy, a stopień ich użycia shaderów zależy od ich wykorzystania w grze. Jasne że nowych grach jest ich więcej w grze niż w starszych ale czasem w duży udział w grafice mają tekstury. Poza tym by lepiej nawiązać do dawnych czasów chodziło mi o zegary (ogólnie) GPU i Mem. Żeby być ścisłym w grach które wymieniłeś to 3870 ledwo dogania 8800GT nie 8800GTS 512Mb - w Bioshock DX9 włączenie wygładzania krawędzi możliwe jest tylko na karcie nVidii (chyba że to już naprawili), w Call… i to się nawet czasami nie udaje. O oddzielnym taktowaniu shaderów nie słyszałem.

Oszustwa w wyświetlaniu miała też ATI, dlatego w tym względzie ATI nie lepsze od Nvidii.

Nie wolno też zapominać o kiepsko napisanych sterownikach od Ati , i znowu kiedyś nie było z nimi większych problemów.

Nie ma co więcej dywagować poczekamy zobaczymy, co tam usmaży AMD, mam jednak wątpliwości czy nauczyli się na błędach i czy wzieli sobie do serca porażki z ostatnich dwóch lat.

A widzisz, stopień wykorzystania zależy od liczby efektów wizualnych, a liczba tych efektów zależy od poziomu detali który ustawiamy, proste.

Tekstury (a raczej wydajnośc jednostek teksturujących), ma stały bardzo wyraźny wpływ na wydajność, tak jak przepustowość pamięci, jeśli jedno albo drugie nie wyrabia, to potencjał układu jest marnowany.

Co do taktowania shaderów to domyślam się że chodziło ci o to że nie słyszałeś aby ati miało to zastosować w nowym układzie… gdzieś pojawiły się 3 taktowania do tego właśnie układu… nic pewnego http://www.frazpc.pl/news/20400-Radeon_ … ecyfikacje

Gdzie w CoJ 3870 jest wolniejsze? http://pcarena.pl/uploads/myzia/test_15 … sy/coj.png

http://www.egielda.com.pl/?str=art&id=3785-9

Myślicie, że w ile dni/tygodni po premierze nowych kart, stanieją ZNACZNIE karty - Geforce ~ Asus 8800GS? :stuck_out_tongue:

nowe karty w czerwcu ?? :slight_smile: hmmmm dla mnie super akurat wszystko w czerwcu mam kupić :smiley:

Oczywiście jak zwykle zależy kto testuje :]

Jak zwykle jakieś ale do testów z egiełdy :stuck_out_tongue:

najczęściej testy z pclaba mijają się z prawdą.

Ale panowie, konstrukcja shaderów zaserwowana przez ATI Technologies jest lepsza, problem polega na tym, że mimo 5 jednostek obliczeniowych w shaderze naogół pracuje tylko jedna z nich… Słyszałem, że popracowali nad tym i teraz mają działać na raz minimum dwie jednostki… Chyba nie muszę mówić, jakiego to da kopa karcie! Poza tym usprawnili słabą konstrukcję jednostek ROP, które to chyba mimo wszystko za obecną wydajność karty.

Szyna pamięci 256bit i 1GB pamięci w Radeonie HD4870 coś nie bardzo mi to się widzi aby to dobrze ta pamięć była wykorzystana.

Nadrabia prędkścią pamięci :wink: . 3,4GHz to nie przelewki.

Dobra wracając do tematu. Czym różni sie 8800 GT od tego nowego 8800GTS? I którego się bardziej opłaca kupić?

Tu zobacz

http://www.geforce9.pl/faq8800gts.php