ich hab ne gf 540M und die schafft tendenziell 5 fps, und nu ? die ps2 hingegen hat gar nix zerstör, das war damals die schlechteste konsole, stellenweise sogar von der dreamcast übertroffen (siehe q3 arena) und die war da scho ewig auf dem markt. von pc qualität war das ding meilenweit entfernt, damals gabs einige grafikkarten/treiber. guggst du hier :http://forum.chip.de/grafikkarten-sound ... 01087.htmlTemeter hat geschrieben: Ne, ich habe immer noch eine alte GTX660 drin, und die schafft tendenziell 60fps bei höheren Grafikeinstellungen. PS2 hat dagegen PCs praktisch zerstört, weil es damals an den modernen Grafikchips/Treibern fehlte.
spätestens mit der gf3 war schicht. oder meinst du vll die ps1 ?das war was anderes. da konnte man schon tomb raider mit hw renderer spielen wo pc spieler noch mit software renderer rumgekrebst sind.
60 fps sind immer gut aber bei manchen genres ned unbedingt zwingend erforderlich. stabile 30 fps reichen manchmal, gibt schlimmeres find ich. tearing und pop ups zb.Temeter hat geschrieben:Außerdem, was will ich den mit stabilen 30 frames? Über die technischen Steinzeit sollten wir eigentlich hinaus sein. Dafür nehme ich auch gerne weniger Details oder eine etwas geringere Auflösung in Kauf.
das war halt auch eher die seltene außnahme. viele games haben auf der ps2 auch geruckelt wie die sau.Temeter hat geschrieben:Erinnert euch nur mal an Zeugs wie Ratchet&Clank, der erste Teil sah erstklassig auf PS2 aus, und lief dennoch in 60fps. 2 gens später läuft das Remake nur noch in 30...
aber was ich vom remake gesehen habe war eigentlich sehr gut. aber naja... 30 fps = unspielbar ich versteh scho
Temeter hat geschrieben: Außerdem, Batman und was? Arkham war so scheiße (btw auch als Spiel eher schwach), dass der Verkauf für Monate eingestellt wurde. Da solltest du nicht mit Steinen werfen, wenn auf Konsolen nichtmal Tetris vernünftig umgesetzt wird.
ich fands klasse und hat mir spaß gemacht das game. ist halt eines von vielen...