@Olo, post #89
@gx, post #91
@Olo, post #92
Przeczytaj DOKŁADNIE co napisałem - 169W poboru mocy przy DWÓCH działających monitorach i DWÓCH WŁĄCZONYCH komputerach
No i ile znasz takich konfiguracji
ale się uśmiałem , porównujesz słabiutkie Wii do wypasionego PC
@Olo, post #90
Naprawdę przy dzisiejszych cenach pamięci jakie to ma znaczenie
@Olo, post #90
@gx, post #93
chocby do mojego PC ktore jest slabsze od Wii U tj. Celeron G550 z GTS450, w gierce ala Crysis ok. 350W na liczniku. Wii U nie jest slabiutkie, chyba pomylies z Wii
@gx, post #67
mala, ale nie zalosnie jak na rok 2000/2001 w temacie gier.[quote]
PS2 miał naprawdę świetny hardware z ogromną jak na swoje czasy wydajnością. Gdyby SONY dało 2x więcej VRAMu gry automatycznie byłyby dużo ładniejsze. To jest przykład naprawdę głupiej, wręcz idiotycznej oszczędności na której cierpiał i klient i developerzy gier a same SONY dużo nie zaoszczędziło bo ceny pamięci i tak wtedy nie były zbyt duże a potem tylko taniały...
[quote]to nie jest piekne jak to opisujesz.. programisci gier maja dzisiaj problem z tym co powinno byc na CPU Vs. z tym co powinno byc na GPU, taki sztywny podzial dreczy ich nocami i zamiast spac ciagle kalkuluja, a Ty im wlasnie dolozyles roboty, bo jeszcze musza myslec, gdzie tu CPU-APU, a gdzie GPU, sie chyba pochlastaja
Co do ilosci pamieci to tez nie jest tak slodko, takie 8GB to juz raczej szybki bufor, a nie pamiec operacyjna. DDR3 jest za wolna zeby operowac na takiej calosci w przyslowiowej ramce plynnie dzialajacej gry... DDR5 poprawia, ale jest pradozerne... Takze nie ma co tutaj przesadzac. Trzeba wiec znalezc zloty srodek, pomiedzy wydajnosci, iloscia pamieci, a rzeczywistymi potrzebami gier w fullHD.
No coz, mnie taki projekt nie powala
chyba zapomniales o ARM.
@Ender, post #70
A pamięć XDR2? W PS3 jest taka zastosowana (albo XDR), gdyby uzyc jej do obsługi procesora i ukladu graficznego?
@XoR, post #96
Twój GPU używa ~120W pod pełnym obciążeniem
@XoR, post #97
jeden mały drugi duży wystarczy tylko zmienić kilka linijek w kodzie aby przerzucić kod
a dlaczego nie dać DDR3 + GDDR5?
ednak z punktu widzenia gier lepszy byłby jednak X86
ARM jest gorszy. Ma jakieś rozszerzenia które porpawiają upakowanie kodu
@gx, post #100
problem jest w polaczeniu, nie wiesz tak naprawde w ktorym GPU wykona sie program i nie mozesz sobie tak trywialnie tym sterowac, chyba, ze z gory rozdzielisz GPU i beda dwa GPU, male GPU w APU i duze GPU osobno, ale wtedy nie skorzystasz w pelni z polaczenia GPU... de facto moze wyjsc z tego wiecej straty niz korzysci.
a dlaczego sadzisz, ze takie rozwiazanie najlepsze, bo takie jest w PC ?
z punktu widzenia gier x86 to kaszana, duzy, ociezaly, przeladowany...
co Ty godosz czlowieku , akurat ARM to bezposredni konkurent 68k. x86 wcale nie ma tak dobrego upakowania w porownaniu do RISC, jak sadzisz, szczegolnie do MIPS32...
@gx, post #99
bzdury piszesz XoR, z skad wiesz ile co zuzywa, bo ja sam dok. nie mam pojecia, musialbym przykladac miernik do roznych punktow na plycie...
Podaje z miernika dla calego systemu (1xHDD, 1xDVD) dok. z Crysys 2, a mam takie hiendowe cudenka przy kazdym gniazdku i jeszcze na przedluzaczach, i jak byk stoi ok. 320W. GTS450/DDR5 nie jest energooszczedny!!!, jak odlaczyc tego potwora GTS450 i przejsc na HD2000 to dopiero robi sie jak na PC dosc oszczednie, ale nadal troche brakuje mu do Wii U, o wydajnosci juz w grach nie wspomne .
a ten Celek jest slabaszy, niewiele, ale slabszy, choc nie we wszystkim, tylko ogolnie..
to jest taka analogia jakbys porownywal 2 rdzenie 2.6Ghz Celka G550 do 3 rdzeni mobi. i7-3gen taktowanego 1.24Ghz, raz wyjdzie szybciej, jednak summa sumarum wolniej.
Ten PPC ma 3 rdzenie 4 watkowe, a to jest obecnie najoptymalniejsze rozwiazanie na 1 rdzen dla normalnego kodu. "Gole" CPU i GPU w Wii U maja TDP podobne do "golego" Celerona G550 i wyraznie mniejsze wzgledem Celerona G555 (TDP 65W, czyli goly praktycznie wiecej niz cala konsola Wii U). Ten PPC nie posiada VMX, ale dokonuje fuzji instrukcji tak jak to mial robic sp. N050 w Natami, takze np: wykonuje nie 2, a 4 instr. FP w cyklu na rdzen, teoretycznie oczywiscie daje to w calosci wydajnosc FPU na poziomie ok. 15Gflops przy 1.24Ghz - teoretyczna wydajnosc ograniczac bedzie konstrukcja CPU, szyna i pamiec... takze w praktyce bedzie zalezalo to od tych czynnikow np: ten Celeron teoretycznie ma kilka razy wiecej Gflops, jednak w praktyce buja sie srednio w okolicach 13Gflops, para wiec idzie, ale w gwizdek
przeciez to nie jest komputer do badan naukowych, tylko zabawy... Najwazniejsze, ze gry sa juz w FullHD, a nie quasi FullHD, bo to taka granica rozdzielczosci ktora na dlugo bedzie standardem, powyzej ludzkie oko nie dostrzega z zalecanej przez lekarzy i rozsadnej odleglosci od ekranu tych malutkich pikselikow na 40-50 calowym ekranie...
@XoR, post #101
Przerzucenie postprocessingu/fizyki da więcej za mniejsze obciążenie dla GPU, szczególnie że proces rysowania tekstur
Po co więc dawać jeden typ pamięci który będzie albo za drogi per pojemność albo za wolny dla GPU
poczytaj niedowiarku http://www.eece.maine.edu/~vweaver/papers/iccd09/iccd09_density.pdf
Słuchasz jakiś bzdur Wojoxa który ewidentnie tak jak Ty żyje jadem który chłonął kiedyś z MA
@XoR, post #102
http://www.benchmark.pl/testy_i_recenzje/Niedrogie_a_wydajne_-_5x_GeForce_GTS_450-3313/strona/11463.html
i tylko jakiś rendering który może się dobrze rozkładać na wątki
piszesz że Wii U jest wydajniejsze co jest bzdurą.
i7 Ivy + GPU
@GumBoy, post #105
A gigabajtowe dyski Cię uspokajały gdy AmigaOS miał 15 megabajtowy folder?
@GumBoy, post #107
Zupełnie jak 15GB w czasach terabajtowych dysków.
@gx, post #103
tak, tylko zeby wykonac postprocessing to GPU musi zakonczyc rysowanie, jakiekolwiek przyspieszenie rysowania jest lepsze od czekania
ten dokument porownuje kod/wielokosc binarki wygenerowany przez gcc, wiec mozesz sobie darowac taki argument
gcc generuje specyficzny kod np: dosc kiepsko radzi sobie z wiecej niz jednym rejestrem , ale to tylko jedna z licznych jego wad...
bzdury to na razie widze tworzysz, szczegolnie twierdzac jakoby x86 byl najbardziej podobny do 68k, niby w czym ? . zeby takie rzeczy pisac to trzeba miec zielone pojecie.
@XoR, post #102
Wii U używający tycich procesorków
@XoR, post #111
skoro większość kodu jest generowana dzisiaj w GCC to porównywanie w nim jest dość sensowne
używanie większej ilości rejestrów nie zwiększa gęstości kodu
RISC inaczej się programuje w ASM tj. trudniej. Ktoś kto ma doświadczenie w programowaniu np. X86 i PowerPC na pewno woli programować w X86
@gx, post #104
testy na necie , masz testy na necie, chociaz moge sprawdzic na zywo :
http://www.benchmark.pl/testy_i_recenzje/Niedrogie_a_wydajne_-_5x_GeForce_GTS_450-3313/strona/11463.html
co ja tu widze, Gainward GTS 450 1GB (880/975) - 342W
Gigabyte GTX 260 896MB (575/999) - 373W
ale najlepsze to w spoczynku: Gigabyte GTX 260 896MB (575/999) - 202W!, i tutaj wydajnosc na Wat bierze kompletnie w leb.
w grach niemal wszystko dobrze rozklada sie na watki , tylko to jest nadal dosc nowa w tym swiecie technika programowania i nawet myslenia programistycznego/algorytmicznego. summa summarum ten i7 jest wydajniejszy od Celka, choc kod na jeden rdzen zadziala na Celku lepiej, po to wlasnie dali do i7 to Turbo, ktore w programie wielowatkowym i tak na niewiele sie zda...
tylko ten i7 w lapku to nie wyskoczy ponad 2Ghz juz przy GPU klasy GTX650, chyba nie chcesz miec 100 stopni na rdzeniach, szum wiatraka przyprawiajacy o chorobe morska i plonacy 90W zasilacz
ps. na marginesie, ten pobor energi zaczyna byc szczegolnie wazny jak masz w domu trojke osob lubiacych pykac w gierki na swoich sprzetach...
jest ciut wydajniejszy, oczywiscie w grach, a nie potrzebuje 300W, tylko 5-6x mniej.
tu masz takie ciekawe filmiki: http://www.youtube.com/watch?v=CKz5L4dL62k
i jeszcze ten, jakby nawet lepiej : http://www.youtube.com/watch?v=0O8guMHgXy4
Wii U jest nowym sprzetem, wiec jeszcze nie wszystko jest dopracowane, z czasem poprawia troche framerate i jakosc.
@XoR, post #114
Zaczynam wierzyć że nic nie sprawdzałeś u siebie tylko znalazłeś wcześniej ten test i wynik 320W czyli ogólnie żal.pl
ale powiedz jak Ci to wyszło że jest wydajniejszy
kolejna wypowiedź pisana stylem jakbyś był naćpany
takie gry jak te to byle jaki badziewny PC pociągnie w 1080p w 60fps
Wii U ssie pa...
@gx, post #115
moglbym zapytac o to samo w odwrotnym przypadku...
i to spelnia rygorystyczne wymagania domu panstwa gx
@XoR, post #116
kup sobie lepiej normalny zasilacz
i po co tak obsesyjnie oszczędzać prąd?
mój i7@3.66GHz z GTX460 w iddle ma ~135W
na przestarzałym PowerPC 750
Nie oznacza to jeszcze jednak że ta konsola ma jakąkolwiek sensowną wydajność.
producenci gier najwyżej będą musieli kodzić
@gx, post #117
co to za pojecie "sensowna wydajnosc"... wydaje mi sie, ze jednak Wii U ma bardzo sensowna wydajnosc
bo u mnie w domu jest rowniez produkowany i wole nie dociagac z sieci...
strasznie duzo jak na nic nierobienie , to jest 4x Wii U w czasie grania
tworcy gier to troche juz przesadzaja z tymi wymaganiami, ale nie sadze zeby musieli w przypadku wiekszosci gier dokonywac jakis drastycznych ciec, czy nawet kodowac w asm.
@XoR, post #118
po nowej generacji konsolach spodziewam się gier z fizyką i innymi bajerami a Wii U nic takiego nie pociągnie
sprzedawało to spowolniło by rozwój gier
sensowną wydajność to będą miały PS4/X720 jak ich TDB zamknie się w granicy 250W
patrząc że masz ponad 2x słabszy PC pod każdym względem to raczej mój pobiera mało a Twój dużo
po premierze PS4 i X720 wymagania gier podskoczą i pitu-pitu procesorek nie da rady nawet z kodowaniem w ASMie