pierwsze modele PS3 i X360 brały >200W
i to byl jeden z powodow ich sporych wymiarow i awaryjnosci, a teraz sa inne kryteria oceny.
Fakt, CELL jest przesadą.
ale teoretycznie pozwala wykonac dobra fizyke, co z tego, jak zdecydowana wiekszosc developorow mowi, ze jest to dla nich zbyt trudny i niewielu skorzystalo
co do N to z jednej strony tak a z drugiej mogli dać jakiś procesor bardziej bazowany na G4 i taktowany ze 2GHz.
tylko wtedy bylby nieco wiekszy, pobieral wiecej energii, wydzielal wiecej ciepla. obecny cpu mieszczacy w sobie trzy rdzenie ma wielkosc jednego rdzenia intel atom (45nm) i zadowoli sie maks. TDP 5W/1.24Ghz.
pamietaj, ze dzisiejszy pojedynczy tranzystor w techn. 45nm moze dzialac z predkoscia nawet setek Ghz (oczywiscie ruch w dol czy gory ma swoje konsekwencje, nie zawsze procek w mniejszym wymiarze bedzie lepszy i vice versa..), zatem tylko od skomplikowania i jakosci architektury zalezy z jak maks. czestotliwoscia moze dzialac, ile energii bedzie mogl pobierac, ile ciepla wydzielac, ile zasobow materialowych zuzyje, ile bedzie odpadow itd... Procesory RISCowe osiagaja zegar nawet 10Ghz na rdzen, wlasnie dzieki temu, ze sa RISCowe (maja proste operacje nie wymagajace wielu tranzystorow), choc w ekstremalnych warunkach pracy... Oczywiscie procesory z superkomputrow tyle nie osiagna, bo choc sa RISCowe to maja mnostwo dodatkowej logiki calkowicie zbednej w domowych CPU. Najwiecej i tak we wspolczesnych prockach zajmuja pamieci :), a potrzeba tutaj 6 tranzystorow na 1 bit... to sprawia, ze nawet polowe powierzchni zajmuje w niezaleznie juz jakim procesorze jego wlasne pamieci... to na tym polu x86 nadrabiaja do RISC, ale jest granica, czym wiecej tej pamieci tym wiecej zzera to energii, wydziela ciepla i tym bardziej zlozona jest logika ktora musi tym zarzadzac, a to obniza zegar, zeby tak sie nie stalo trzeba obniz. proces techn., to znowu komplikuje produkcje, zwieksza potencjalnie awaryjnosc itd... Temat mozna ciagnac niemal w nieskonczonosc
Dlatego trzeba zastanowic sie nad tym, czy procesor musi dublowac jednostki wykonowacze z innych ukladow, ktore sa nastawione na pewien specyficzny sposob przetwarzania, jak np: w GPU i tutaj bedzie dzialac takie przetwarzanie duzo efektywniej niz na CPU...
a wydajność byłaby nieporównywalnie większa. 1.24GHz procesor pokazuje brak perspektywicznego myślenia
ja wiem czy nieporownywalnie, czy rzeczywiscie jest brak myslenia perspektywicznego. ten cpu z tego co donosza developerzy w typowych operacjach jest dosc dobry (takze dla fpu np: PPE z PS3 tutaj jest strasznie cienki, tak samo jak Intele..), jedyna jego wada jest brak jednostek vmx na rdzen (altivec, uzywaja ejplowskiej terminologi), czy to jednak rzeczywiscie wada przy latwo programowalnym GPU o wydajnosci 500Gflops ?. Tak jak napisalem wczesniej, najbardziej psiocza Ci ktorzy widza problem w przepisaniu swojego silnika fizyki na CPU+GPU, bo maja tylko na CPU, takze obecnie nawet 3Ghz i5 ze swoimi 4 rdzeniami ledwo daje rade, a przeciez to jest naturalne pole dzialania dla GPU (a przeciez nie jest to fizyka rodem z CERNu), CPU bardziej nada sie do innych operacji np: AI jest domena CPU, tylko tutaj wazniejsza jest wydajnosc w typowych juz operacjach. Tak po prawdzie, to wszystko rozbije sie o kase, mamone, sianko, kapuste itd. :), juz obecnie potrzeba osobnych zespolow opt. dla X360 i PS3, i dochodzi jeszcze Wii U, tylko Wii U oferuje zupelnie inna architekture, nowa architekture, taka ktora bedzie dominowac w grach, jak sadze, w przyszlych grach.
gry 2D pokazują dzisiaj że na fizyce można zbudować genialny gameplay.
gry 2D to zadowola sie kilkudziesiecioma Mflopami :)
swoją drogą rozumiem że masz Wii U
nie mam jeszcze, to ma byc zakup urodzinowy, jedynie testowalem 1 egz., zeby sprawdzic reakcje na taka zabawke... trzeba liczyc sie z tym, ze dev. ten sprzet poznaja, zob. co bedzie za rok :).. Co do pytania, to nie wiem, byly tylko dwie gry i dwie na Wii U, nawet nie bralem tego pod uwage, a to tez pewna zaleta.
Ostatnia aktualizacja: 14.01.2013 00:32:44 przez gx