Microsoft will das Auflösungsgefälle zur PS4 überwinden

XOne
Bild von Benjamin Braun
Benjamin Braun 361186 EXP - Freier Redakteur,R10,S10,C10,A10,J10
Pro-Gamer: Hat den ultimativen GamersGlobal-Rang 30 erreichtPlatin-Gamer: Hat den sehr hohen GamersGlobal-Rang 25 erreichtDieser User unterstützt GG mit einem Abonnement oder nutzt Freimonate via GG-Gulden.PS3-Experte: Ist auf PS3-Spiele spezialisiert und kennt auch die Konsole selbst gutSport-Experte: Kümmert sich bei GamersGlobal um Sport- und RennspieleAdventure-Experte; Kennt sich wie kaum ein Zweiter mit Adventures ausRollenspiel-Experte: Kaum ein RPG, bei dem er nicht das Ende gesehen hat...Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtGold-Cutter: Hat 100 Videos gepostetArtikel-Schreiber: Hat 15 redaktionelle Artikel geschrieben

11. Juli 2014 - 13:21 — vor 3 Jahren zuletzt aktualisiert

Die Diskussionen über die technischen Unterschiede zwischen Xbox One und PlayStation 4 beschäftigen die Spieler bereits seit dem Release der beiden Plattformen im November 2013. Besonders die bei Multiplattform-Spielen oft geringere Auflösung der Spiele, wie etwa in Battlefield 4, bei der Definitive Edition von Tomb Raider oder in Assassin's Creed - Black Flag, ist ein allgegenwärtiges Thema. Harvey Eagle von Microsoft UK hat sich gegenüber dem englischsprachigen Magazin CVG jüngst zu diesem Thema geäußert. Er findet es wichtig, dass Microsoft das Auflösungsgefälle überwindet, allerdings nicht so sehr aufgrund der technischen Unterschiede von Multiplattform-Spielen selbst:

Wenn man Third-Party-Spiele, die in unterschiedliche Auflösungen und mit verschiedenen Framerates laufen, direkt nebeneinander stellt, ziehe ich es in Zweifel, dass man den Unterschied sieht, wenn man das Spiel nicht gerade auf einem mehr als 60 Zoll großen Bildschirm laufen lässt. Ich persönlich könnte den Unterschied jedenfalls nicht sehen.

Dennoch hält Eagle es für wichtig, dass Microsoft in diesem Punkt zu Sonys PS4 aufschließt:

Es ist wichtig. Die Medien haben das Thema aufgegriffen – und wenn das zu der Wahrnehmung führt, dass eines der Geräte mehr Leistung hat als das andere, dann ist es wichtig. Deshalb versuchen wir, den Entwicklern zu ermöglichen, die Spiele mit höchstmöglicher Auflösung und Framerate auf Xbox One zu bringen.

Erreichen will Microsoft dieses Ziel, wie bereits vor einigen Monaten angedeutet, mit der zusätzlichen Leistung des Grafikprozessors, die die Entwickler durch die Nicht-Nutzung des Bewegungssensors Kinect freilegen können, das anders als zum Start nicht mehr zwingender Bestandteil der Xbox One ist (wir berichteten). Ob das ausreicht, um bei zukünftigen Multiplattform-Spielen flächendeckend bei Auflösung und Framerate mit der PS4 gleichzuziehen, bleibt abzuwarten.

Azzi (unregistriert) 11. Juli 2014 - 13:38 #

Das technische Aufschließen ist gar nicht möglich, die Speicherbrandbeite des GDDR5 RAMs der PS4 ist einfach viel höher. Denke aber auch das die Multiplattform Spiele (und das sind 95%+) sich eher marginal unterscheiden werden, tun sie ja aktuell schon.
Achja das aktuell hübscheste Konsolenspiel wird wohl weiterhin erstmal Ryse bleibe und das ist Xbox1 exclusive...

gar_DE 16 Übertalent - P - 5989 - 11. Juli 2014 - 13:43 #

Ryse ist ja auch nicht mehr als eine Grafik-Demo.
Erst einmal abwarten, zu was die Programmierer nächstes Jahr fähig sind.

Passatuner 14 Komm-Experte - P - 2302 - 11. Juli 2014 - 20:29 #

Für eine Grafikdemo hatte bzw. habe ich damit aber eine Menge spass und fühlte mich gut unterhalten. Für mich war es viel besser als sein Ruf.

Zzorrkk 13 Koop-Gamer - - 1654 - 11. Juli 2014 - 22:29 #

Ging mir auch so. Die angeblich banale Story war völlig ausreichend für die Art Spiel. Als ob die Story von Diablo von Tolstoi wäre. Und das Gameplay hat mich gut unterhalten. Und die Grafik und das Artdesign war wunderschön. Hatte insgesamt echt Spass.

bam 15 Kenner - 2757 - 12. Juli 2014 - 12:27 #

Zu Diablo 3 gabs doch auch große Kritik hinsichtlich der Story.
Richtig gute Spiele übertreffen einfach die Erwartungen. Wenn Spiele nur die Erwartungen erfüllen, dann sind viele Spieler immer noch nicht zufrieden. Ryse mag ein ordentliches Spiel sein, aber nicht mehr und auch nicht weniger. Gut reicht aber nicht, wenn man Sehr Gut abliefern könnte.

Maverick_M 18 Doppel-Voter - 11671 - 12. Juli 2014 - 16:12 #

Ich konnte es ja nicht spielen, insofern nur beurteilen, was ich gelesen/gesehen habe. Und das was ich sah, war nicht nur nicht "befriedgend", sondern ziemlicher Müll. Die E3 Demo zur Vorstellung von Ryse damals bot jede Menge Potential, das letztendlich nicht genutzt wurde. Es wurde ein simples 08/15 Action-QTE-Spielchen. Hat mich bei CryTek aber auch nicht gewundert.

Die Kritik an der Diablo 3 Story hingegen verstehe ich nach wie vor nicht. Der ewige Konflikt zwischen Gut und Böse, was ist daran schlecht!? Klar, ich fands Doof, [SPOILER] dass Cain stirbt [/SPOILER], aber ansonsten war die Story doch auf Augenhöhe mit derer der Vorgänger.

Skeptiker (unregistriert) 11. Juli 2014 - 13:53 #

Und das Kopieren von Texturen entfällt, was die Software wiederum einfacher macht. Dadurch wird wieder die CPU entlastet und das bedeutet vielleicht nicht nur echtes FullHD, sondern auch höhere Stellwerte für mehr Fußgänger in GTA, detailreichere Grafik, mehr Partikel, mehr, mehr, mehr.

Bruno Lawrie 16 Übertalent - P - 5966 - 11. Juli 2014 - 16:11 #

Von den zusätzliche Shadereinheiten der PS4-GPU mal ganz zu schweigen. Das ist weit mehr als die 10%, die der wegfallende Kinectsupport bringt.

Davon abgesehen sind 10% auch sehr wenig. Mit 30fps kommt man damit dann auf 33fps. Wurscht.

Den technischen Abstand zur PS4 kann die X1 nicht einholen. Ob das nun besonders relevant ist, steht auf einem anderen Blatt. In jeder Konsolengeneration gab es da Unterschiede und sie waren immer ziemlich irrelevant.

Fischwaage 17 Shapeshifter - 6765 - 11. Juli 2014 - 20:19 #

Finde InFamous Second Son viel schöner als Ryse!

DarkVamp 12 Trollwächter - 929 - 11. Juli 2014 - 21:56 #

Oh dann musst du ein anderes Spiel gespielt haben....

Bruno Lawrie 16 Übertalent - P - 5966 - 12. Juli 2014 - 11:11 #

Da es Ryse nicht für die PS4 gibt, kann man ja schwer vergleichen. Vermutlich würde es dort mit 1080p laufen. ;-)

Bei den anderen Spielen, die es für beide System gibt, kann man das Gefälle ja schön sehen. Die PS4-Version ist IMMER die technisch bessere. Und nicht mal so oder mal so wie bei Xbox 360 und PS3.

Und rein von den harten Hardwarefakten ist die PS4 mit mehr Compute-Units und schnellerem Speicher zwangsläufig schneller als die Xbox One, da braucht man nicht diskutieren, sondern nur nachlesen. Die Xbox kann gar nicht schneller sein, egal wieviel man trickst. Es gibt auch keine Spezialchips (wie z.B. damals beim SNES gegenüber dem Megadrive), die die langsamere Basishardware ausgleichen kann.

Unterm Strich wird das freilich relativ wurscht sein. Bei praktisch jeder Konsolengeneration waren die Geräte nicht gleich schnell und das schnellere Modell war nicht immer automatisch das erfolgreichste oder beste. Entscheidender sind Exklusivtitel, Spielemenge, Preis, Werbung und wie schnell man den Markt durchdringt. Wenn Microsoft ein, zwei herausragende Exklusivtitel bekommt und die Konsole 50€ günstiger als die PS4 verkauft, kann das wieder kippen.

Labrador Nelson 28 Endgamer - - 106840 - 11. Juli 2014 - 13:46 #

Klar, es ist nur wichtig, weils die Presse aufgegriffen hat, jaja, diese Schwätzer von MS...

Grumpy 16 Übertalent - 5514 - 11. Juli 2014 - 13:46 #

"Ich persönlich könnte den Unterschied jedenfalls nicht sehen."
ist ja toll, aber ich kann es, und zwar deutlich. und das auch auf einem "nur" 28" großen bildschirm

Equi 14 Komm-Experte - 1912 - 11. Juli 2014 - 15:31 #

Nie. Im. Leben.

justFaked 16 Übertalent - 4454 - 11. Juli 2014 - 15:42 #

Auf 15cm Entfernung bestimmt ;)

Sven Gellersen Community-Moderator - P - 25182 - 11. Juli 2014 - 16:43 #

Genau das ist der Punkt.

Maverick_M 18 Doppel-Voter - 11671 - 11. Juli 2014 - 19:13 #

Wieso sollte er es nicht sehen!? Niedrigere Auflösungen müssen immer interpoliert werden. Es ist also immer unscharf, wenn es keine native Auflösung ist. Das sieht man auf den ersten Blick. Außer man steht 5m davon entfernt.

Lorin 16 Übertalent - P - 4187 - 12. Juli 2014 - 6:06 #

Natürlich sieht man das. 900p und 1080p sind natürlich schwerer zu unterscheiden als 720p und 1080p. Aber wer den Unterschied 720p u 1080p nicht sieht der kann auch gleich wieder NES spielen gehen. Es kann einem ja egal sein, aber das nicht zu sehen ist nur mit Sehstörung möglich.

Bruno Lawrie 16 Übertalent - P - 5966 - 12. Juli 2014 - 11:16 #

Bei der Diskussion wird ja auch immer davon ausgegangen, dass die Menschen Fernseher kaufen, wo Auflösung, Bilddiagonale und Sehabstand perfekt ausgelegt zueinander sind.

Aber wer kauft auf diese Weise Hardware? Bei mir ist der Fernseher für o.g. Werte an sich zu groß. Mir waren einfach andere Faktoren wichtiger als so eine bescheuerte Rechnerei.

Hat das Ergebnis, dass 720p und 1080p für mich ein himmelweiter Unterschied ist. Und bei Infamous und Watch_Dogs kann ich auch noch sehr gut erkennen, dass Watch_Dogs mit 900p und Infamous mit 1080p läuft.

Bin mit meinem Setup übrigens sehr zufrieden und würde nichts anderes wollen. Für Leute wie mich ist es da durchaus relevant, ob ein Spiel mit nativen 1080p oder interpoliertem 900p läuft.
Bei Beamer-Besitzern wird es noch offensichtlicher sein, die haben ja quasi immer eine Bildfläche die für den Sichtabstand und die Auflösung zu groß ist.

BruderSamedi 16 Übertalent - P - 4901 - 11. Juli 2014 - 19:06 #

Ist eines der Hauptprobleme dann nicht auch, dass 1080p meist die native Auflösung des Geräts ist und der Rest hochinterpoliert werden muss? Sähe man die Unterschiede auf einem Röhrenmonitor also genauso stark?

werweißdasschon (unregistriert) 11. Juli 2014 - 20:16 #

Also ich persönlich merke sehr wohl ob ein Game vor allem Fps technisch flüssiger/grober läuft im direkten vergleich ob annen 22 Zoll Lcd Monitor, 32" Tv oder nen 55" Zoller Plasma Tv.
Es läuft nun mal in der Darstellung alles Flüssiger ab bei Beispielsweise knapp 30fps gegen 50~fps... und nein man muss nicht 15 cm davor setzen!

justFaked 16 Übertalent - 4454 - 11. Juli 2014 - 20:29 #

FPS-Unterschiede kann man relativ leicht erkennen. Auflösungsunterschiede - bei "gesundem Abstand" - (wenn überhaupt) nur im Direktvergleich. Meine Erfahrung.

Vampiro 22 AAA-Gamer - P - 35715 - 11. Juli 2014 - 22:00 #

Ich denke auch, die Unterschiede sind nur im Direktvergleich wahrnehmbar. Man weiß ja sonst auch nicht, wie es woanners aussieht. (Bei FPS sieht man IMMER ob es blöde ruckelt). Und genau deshalb greifen die Käufer dann auch tendenziell zur PS 4 Version (wenn es das Spiel für beide Konsolen gibt und sie beide haben) oder kaufen sogar die PS 4 (statt der One).

Die One hätte zwei, drei Killer-Kinect-Titel gebraucht. Die gab es aber ebensowenig wie echte Kracher für das WiiU-Gamepad. Anders lief es mit Wii Sports.

Maverick_M 18 Doppel-Voter - 11671 - 12. Juli 2014 - 1:42 #

Nein. Einfach nur: Nein. Ist schlichtweg falsch.

immerwütend 22 AAA-Gamer - P - 31845 - 12. Juli 2014 - 8:43 #

Ich liebe fundierte, wohlbegründete Aussagen!

Maverick_M 18 Doppel-Voter - 11671 - 12. Juli 2014 - 16:16 #

Muss ich denn wirklich jedes mal alles wiederkauen!? In den letzten Tagen das gleiche Thema unter mehreren verschienen News. Stets habe ich ausführliche Begründungen geliefert und Fakten dargelegt. Und dann kommt immer noch so ein Unsinn.

Nein, ich schenke mir hier jede weitere Diskussion. Die Aussage bleibt falsch. Punktum.

immerwütend 22 AAA-Gamer - P - 31845 - 12. Juli 2014 - 16:19 #

Ich ahnte doch, dass dir Sarkasmus fremd ist :-)

Sgt. Nukem 15 Kenner - P - 3666 - 12. Juli 2014 - 20:35 #

Hört sich an wie ein Profi aus Schweden.

Slaytanic 23 Langzeituser - P - 40731 - 12. Juli 2014 - 22:03 #

Jetzt sind schon schwedische Profis bei YouPorn unterwegs? ;)

immerwütend 22 AAA-Gamer - P - 31845 - 13. Juli 2014 - 10:50 #

Könnte es sein, dass ihr das mit Arne Saknussemm verwechselt?^^

Bruno Lawrie 16 Übertalent - P - 5966 - 12. Juli 2014 - 11:24 #

Das finde ich nicht. Interpolierte Auflösungen sorgen immer für ein gewisses Aliasing. Schöne Beispiele sind harte Kanten mit starken Kontrasten wie z.B. eine Mauer, die man von der Schattenseite betrachtet und über der ein heller Himmel zu sehen ist. Oder Überlandstromleitungen. Oder Maschendrahtzäune.

In solchen Szenarien sorgt eine Interpolierung oft für stärkeres Flackern, das sog. Kantenflimmern.

Bei zwei Spielen mit gleichen Antialiasing-Settings, die oft o.g. Szenarien beinhalten, merkt man den Unterschied zwischen 900p und 1080p sehr deutlich. Auch ohne dass man die Pixel an sich selbst erkennen muss.

Bei Watch_Dogs (900p) und Infamous (1080p) kann man das auf der PS4 gut sehen. Watch_Dogs wirkt viel unruhiger, da flimmert mehr.

stylopath 16 Übertalent - 4552 - 13. Juli 2014 - 4:55 #

Also wenn man das nicht sieht kann er ja bei der X360 bleiben, kann man sich den nextgen-quatsch sparen...

Marulez 15 Kenner - P - 3576 - 11. Juli 2014 - 13:48 #

Kommt sicher auch immer stark auf die benutze Game-Engine an...

Unregistrierbar 17 Shapeshifter - 7029 - 11. Juli 2014 - 14:03 #

Ich frage mich, welchen Teil der Spielerschaft jene darstellen, die sich an dem Gefäll-chen stören. Sehr groß kann dieser Teil jedenfalls nicht sein - wenn man Leute < 15 mal nicht mitzählt.

ronnymiller 12 Trollwächter - 900 - 11. Juli 2014 - 14:12 #

Na offenbar viele, sonst würde Microsoft nicht so hysterisch reagieren.

Unregistrierbar 17 Shapeshifter - 7029 - 11. Juli 2014 - 14:23 #

Hm... hysterisch sieht anders aus. Ich halte das eher für MS-Aktionismus, denn 5 Mio (Stand 04/14) Konsolen reichen offensichtlich nicht aus, um langfristig mitmischen zu können.

Mir persönlich wäre die Performance beider Konsolen völlig ausreichend. Irgendwann hole ich mir entweder PS4 oder Xone als Zweitgerät - neben meiner Wii U :)

Ich erkenne aber an, dass die Stamm-Klientel von PS4 und Xone wohl eher technik-affin ist. Da muss natürlich alles in Full-HD laufen. Aber wie gesagt, das allein wird für mich nicht entscheidend sein, wenn ich mir eine der beiden hole.

Punisher 19 Megatalent - P - 16320 - 11. Juli 2014 - 16:41 #

Ne, die Stammklientel ist sicher nicht technikaffin. Aber die Nerds, die im Internet Stimmung machen und die Möchtegern-Nerds, die den Unterschied zwischen nativem und von 900p auf 1080p upscaled-Auflösung angeblich noch auf 10"-Tablet-Screens erkennen wollen sind leider die, die den meisten Krach machen, den auch die unbedarften, die die Masse darstellen, hören.

Genau diese unbedarften versucht MS imho mit diesen Meldungen zu erreichen. Die Fanboys erwischen sie so oder so nicht, das wissen sie selbst. Die FullHD-Nazis auch nicht - beide Zielgruppen sind aber zu klein, um wirklich ins Gewicht zu fallen. Die meisten Konsolenkäufer kaufen entweder das, was sie kennen, oder das, wo ganz viele Leute sagen, das ist voll cool und so...

Unregistrierbar 17 Shapeshifter - 7029 - 12. Juli 2014 - 9:56 #

Ich denke auch, dass 3,7 % technischen Vorsprungs nur für einen wirklich kleinen Teil der Gamer wichtig sind. Soweit gebe ich Dir also recht.

Allerdings lässt sich die Masse nun mal von den Massenmedien beeinflussen, und die wiederum berufen sich sehr gerne auf Haarspaltereien wie das "Auflösungsgefälle". Die Hardware verschwindet beim Spielen oft im Hintergrund. Aber das Reden über die Hardware ist - leider - total wichtig und überbewertet. Ich kennen keine Rezension der genannten Konsolen, die ohne technischen Schwanzvergleich auskommt. Und in den dazu folgenden Kommentaren auf den entsprechenden Seiten findet erst recht ein Fanboy-Kleinkrieg statt, der sich vor allem auf Hardware beruft.

Spiritogre 18 Doppel-Voter - 12740 - 12. Juli 2014 - 13:13 #

"die den Unterschied zwischen nativem und von 900p auf 1080p upscaled-Auflösung angeblich noch auf 10"-Tablet-Screens erkennen wollen"

Also gerade auf 10 Zoll Tablets erkenne ich Auflösungsunterschiede sofort. Das liegt einfach am geringen Abstand. Von daher leider ein schlechtes Beispiel.

Bei Fernsehern hingegen muss zumindest ich schon recht nah ran um zu merken, ob es 720p ode 1080p ist.

Maverick_M 18 Doppel-Voter - 11671 - 12. Juli 2014 - 16:20 #

> ...und die Möchtegern-Nerds, die den Unterschied zwischen nativem
> und von 900p auf 1080p upscaled-Auflösung angeblich noch auf
> 10"-Tablet-Screens erkennen wollen...

*Facepalm*
Du hast nicht verstanden, wie Interpolation funktioniert und was eine native Auflösung ist.

Desotho 16 Übertalent - P - 4536 - 11. Juli 2014 - 14:14 #

Für mich ist der Unterschied nicht wichtig.
Am Ende entscheidet welche Konsole die für mich interessanteren Spiele haben wird.
In der letzten Generation war das ganz eindeutig die PS3.

Marco Büttinghausen 20 Gold-Gamer - P - 20431 - 11. Juli 2014 - 15:27 #

könnte schon klappen, ich weiss nicht genau wieviel Power für Kinect reserviert wurde, aber um von den oft benutzten 900 Zeilen auf die vollen 1080 zu kommen, braucht es 20% mehr.

Jesterfox 10 Kommunikator - 418 - 11. Juli 2014 - 18:24 #

Im falle eines deferred Renderers braucht es vor allem mehr ESRAM oder man muss das Rendertarget in den DDR3 legen und verliert die Performancevorteile des Renderers...

Microsoft hat bei der Entwicklung einfach ein paar ungünstige Entscheidungen getroffen während Sony Glück hatte. Blöd gelaufen... hinterher ist man immer schlauer.

Jadiger 16 Übertalent - 5424 - 12. Juli 2014 - 5:47 #

Der DDR3 Speicher ist der Hauptspeicher der ESRam ist eine Art cache oder meinst du mit 32Mb kommst du weit. Das was du meinst geht überhaupt nicht. Außerdem hat die Xbox ein viel größeres Problem das ist die Gpu an sich und schnellerer Speicher würde überhaupt nichts bringen weil die Gpu nun mal zuwenige Shader hat. Ms wusste ganz genau was sie da machen, den für die Gpu stärke ist der Ram ausreichend schnell, man hat bloß nicht gedacht das es so ein riesen Thema wird.
Besonderes da die wenigsten Konsolen Spieler überhaupt irgend eine Ahnung haben über Pc Hardware. Auf einmal ist es super wichtig in welcher Auflösung es läuft, die meisten würden es nicht mal bemerken wenn es nicht breit getreten würde in der Presse.
Das Sony deutlich schlechter da steht in Sachen spielen, ist anscheinend nebensächlich und die Ps4 auch zuwenig leistung hat für 1080p ist auch egal. Hauptsache man stellt die X1 als richtig schlecht hin und die Ps4 als deutlich überlegen hin. Da soll noch einer sagen Pc Spieler sind Grafik Fetischisten und die Konsolen Spieler wollen nur spielen.

Lorin 16 Übertalent - P - 4187 - 12. Juli 2014 - 6:13 #

Die GPU ist nicht zu langsam für GDDR5.
Selbst auf einer uralten Geforce GTS250 würdest du noch deutliche Leistungsunterschiede zwischen DDR3 und GDDR5 merken.
Das war eine Kosten-/ Verfügbarkeitsentscheidung. So ist das halt bei der Entwicklung eines Produkts.

Sony steht schlechter da mit Spielen? Das kann man aber auch ganz anders sehen. Hängt halt vom Genre ab, denn jeder der Beiden bietet tatsächlich das an was der eine nicht hat.

Jadiger 16 Übertalent - 5424 - 13. Juli 2014 - 1:39 #

Die GTS250 ist kein gutes Beispiel.
Schau dir mal das Beispiel an HD4850 gegen HD4870:

Die 4850 hatte die gleiche GPU bloß mit einem deutlich niedrigeren Takt 615 Mhz und nur GDDR3 Speicher der auf 64 Gb/s kam. Also so viel wie die Xbox1 ungefähr hat. Die 4870 hatte 780 Mhz und den Gddr5 Speicher der mit 118 Gb/s lief also fast 100% mehr Durchsatz. Jetzt müsste doch die 4850 gar keine Chance haben gegen die Karte, in wahrheit kam die Karte schon sehr nahe ohne Oc. Übertaktet man die Gpu noch auf ungefähr den Takt der 4870, war der Vorsprung minimal und auch oft überhaupt nicht vorhanden.
Warum ist das dort so? Ganz einfach weil gpus nicht die ganze Zeit eine solche Bandbreite benutzen sonderern eher selten.. die Bandbreite ist meist deutlich höher als die Gpu überhaupt bräuchte.
Den warum nicht kostet das gleiche.

Ich verstehe aber was du meinst so Media Markt Pc mit DDR3 mit 8 Gb Shadow Ram wo alleine die Gpu schon dadurch unbrauchbar war. Das waren Grafikkarten die sich den Arbeitsspeicher mit cpu teilten. Dahinter war aber kein System einer Apu mit ringbus was eben das System so schlecht machte.

Hier ein Beispiel was dir sicherlich gefallen dürfte die HD7730 gibt es mit DDR3 und GDDR5 die Unterschiede sind aber nicht berauschend sondern einstellig. Gddr5 kann sich erst absetzen wenn entweder der Speicher sehr beansprucht wird durch 8xAA oder durch eine sehr geringe Gpu last besteht durch eine niedrige Auflösung. Da aber Spiele heute in 1080p laufen ist die Gu last recht hoch was den unterschied eben in den einstelligen Bereich befördert. Und das mit nur 28,8Gb/s DDR3 Durchsatz gegen GDDR5 mit 72,0 Gb/s, weil die Gpu eben sehr wenig nutzen aus der Bandbreite ziehen könnte.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/27225-sapphire-radeon-hd-7730-mit-1-und-2-gb-im-test.html?start=13

Jesterfox 10 Kommunikator - 418 - 12. Juli 2014 - 12:11 #

Der ESRAM ist kein vollautomatischer Cache, der Programmierer kann selbst entscheiden wofür er ihn nutzt. Frame Buffer oder Rendertarget sind da natürlich prädestiniert dafür, da sehr viele Operationen darauf ausgeführt werden. Für einen einfachen Framebuffer reichen die 32MB auch locker (sind nur ca. 4MB), aber bei einem deferred Renderer werden da noch recht viele Zusatzinformationen pro Pixel gespeichert (Z-Buffer usw.), da reichen die 32MB nur für 1600x900.

Dass die GPU zu wenig Shader hat liegt übrigens auch am ESRAM der den Platz auf dem Die dafür blockiert. Die APU der XB One ist dadurch sogar größer und teurer als die der PS4.

Das Grundproblem der XB One ist die Entscheidung zugunsten DDR3 für den Hauptspeicher. Diese liegt vermutlich darin begründet das Anfangs absolut nicht sicher war dass mit GDDR5 8GB Hauptspeicher möglich sein werden (die ersten PS4 Devkits hatten nur 4GB, Sony hatte da Glück das sie noch rechtzeitig umsteigen konnten auf größeren Speicher, ansonsten wäre die PS4 nur mit 4GB auf den Markt gekommen). MS plante denk ich fest mit 8GB weil sie das für ihre Multimedia-Features gebraucht haben, daher die Entscheidung für DDR3 und ESRAM.

Jadiger 16 Übertalent - 5424 - 13. Juli 2014 - 0:12 #

gut abgeschrieben aus einer der unzähligen Artikel die sagen für 1080p reicht das nicht. 1080p ist aber nicht gleich 1080p jede Engine hat unterschiedliche Anforderungen. Was denkst du was Cache ist, was wird darin abgelegt? Daten die man schnell braucht die wichtig sind wo man den meisten nutzen daraus hat wenn sie in einem schnell Zugriff sind. Das es kein Cpu Cache ist dürfte logisch sein bei einer Apu trotzdem ist der nutzen wie bei einem Cache.

"Das Grundproblem der XB One ist die Entscheidung zugunsten DDR3 für den Hauptspeicher."

Weist du das es Apus gibt die mit DDR3 wunderbar in 1080p klar kommen? Als Beispiel: Tomb Raider läuft in 1080p auf Ultra wunderbar sogar mit TressFx. Das übrigens auf einer Apu 7850k die 33% weniger Shader hat nur 512 und ohne ESRAM auskommen muss. Das Bf4 in 720p auf hoch auf dieser Apu läuft mit den defizienten die man nun mal hat mit 256 Shader weniger kannst dann bestimmt nicht glauben weil wie ist das möglich ohne den Esram.
Der Esram spielt sowieso nur eine unter geordnete Rolle, aber das wirst sowieso nicht glauben. So etwas nennt man gegen Pr wenn einer mit einer höheren Zahl daher kommt, muss man versuchen sich dagegen zuwehren um nicht als viel schlechter da zustehen.
Weil was im Internet seht das muss stimmen. Besonderes wenn alle von einer Seite abschreiben, egal ob das nur vermutete Rechnungen waren oder nicht.

Hast du dir einmal davor überhaupt Benchmarks zu Gpus angesehen? Dann wirst du fest stellen das alles unter der R9 270x die sogar schneller ist wie die PS4 Gpu (1154 Shader bei 800 Mhz zu 1280 1100 Mhz) Probleme bekommt mit hohen Einstellungen in 1080p. Da man ja keine Einstellungen runterschrauben will verändert man die Auflösung, was bei der Ps4 so gemacht wird so wie bei der Xboxone. Jetzt kannst dir ja vorstellen das man bei einer Gpu die nochmal 384 Shader weniger hat noch weiter runter muss diese braucht auch überhaupt nicht den Durchsatz weil sie ganz einfach zu langsam wäre für den Speicher.

Ich gebe dir mal eins auf den Weg Shader anzahl ist wichtigste an einer Gpu, dann kommt der Shader takt und ein viel höherer Speicher takt macht viel weniger aus als du es dir vorstellen kannst.

Warum bringt Speichertakt weniger wie alles andere? Eine Erhöhung des Speichertaktes also der Durchsatz bringt nur viel wenn die Gpu dadurch gebremst wird. Es gib am Pc genug tools die tatsächliche Bandbreite anzeigen in Spielen, das die Last nicht immer 100% sind dürfe schon klar sein, bei den verwenden von Vysnc was bei Konsolen meist bei 30Fps liegt. Also was denkst du hat man den so im durchschnitt bei Tomb Raider bei einer stark übertakten GTX770. Im schnitt zwischen 5% und 20% deshalb ist es auch auf einer Apu Spielbar. Weil eine Karte die 2640Gb/s hat nicht ständig 264Gb/s Daten Durchsatz braucht. Deshalb macht ein viel höherer Speicherdurchsatz viel weniger aus als die meisten denken würden. Datendurchsatz wird erst wichtig wenn man MSAA oder eine höhere Textauflösung oder gar jenseits von 1080p agieren will. Dazu braucht man aber auch Gpus die ein paar Shader mehr haben wie die Konsolen und deshalb soviel Durchsatz haben um eben damit klar zu kommen.

Jesterfox 10 Kommunikator - 418 - 13. Juli 2014 - 12:23 #

Also ich kenn Benchmarks vom Kaveri A10 da zeigt sich recht deutlich wie stark er vom DDR3 limitiert wird... wenn man da keine 2 dualranked Module mit über 2000MHz reinsteckt bricht er doch recht stark ein. Der A8 ist nicht wirklich langsamer weil der A10 seine Power nicht voll zeigen kann. Mein Notebook mit A6 4400M hat auch deutlich profitiert als ich ein 2. Modul für Dualchannel reingesteckt hab... dabei erweitert das auch nur den Speicherdurchsatz und nicht die Shaderzahl.

Was den ESRAM angeht: natürlich kann man sich entscheiden keinen deferred Renderer zu verwenden oder das Rendertarget nicht in den ESRAM zu legen damit 1080p möglich werden. Gibt ja auch Spiele die das machen und mit 1080p laufen. Ist immer eine Frage wie man seine Engine aufbaut und welche Effekte man darstellen will. Aber dieser deffered-Kram kommt halt auch nicht von ungefähr. Damit wird das Postprocessing deutlich verbessert. Diese Operationen würden aber auch deutlich vom schnelleren ESRAM profitieren, weshalb es recht logisch ist das Rendertarget in den ESRAM zu legen.

Sgt. Nukem 15 Kenner - P - 3666 - 12. Juli 2014 - 20:55 #

"Microsoft hat bei der Entwicklung einfach ein paar ungünstige Entscheidungen getroffen während Sony Glück hatte."
---
Andersrum wird was draus: Sony hat bei der Entwicklung einfach ein paar günstige Entscheidungen getroffen während Microsoft Pech hatte.
Oder so...

Jesterfox 10 Kommunikator - 418 - 13. Juli 2014 - 17:03 #

Das Sony die PS4 von 4 auf 8GB Speicher erweitern konnte war Glück. Denn zum Zeitpunkt der ersten Devkits war noch nicht sicher ob der dafür notwendige Speicher verfügbar sein wird. Wenn nicht hätte Sony die PS4 mit nur 4GB RAM an den Start bringen müssen.

Ich glaub der Vergleich zwischen den 2 Systemen wär um einiges interessanter geworden wenn man zwar mehr Power aber deutlich weniger Speicher gehabt hätte...

MS hat sich halt für eine Multimediazentrale entschieden und wenn man sich den Markt zu dem Zeitpukt anschaut war es durchaus verständlich das man keinen großen Erfolg für eine reine Spielekonsole gesehen hat. Der Boom bei den Tablets und Smartphones als Spieleplattform war definitiv da. Dass das den Markt für die Konsolen nicht beeinflusst haben die Marktforscher halt "übersehen". Und wenn du jetzt sagst dass diese Marktforscher die Wurzel des ganzen Problems sind, dann stimmen wir überein ;-)

Qualimiox 13 Koop-Gamer - 1758 - 11. Juli 2014 - 23:54 #

Es werden aber keine Zeilen berechnet, sondern Pixel! 900p entspricht ca. 1,3 Mio Pixel, 1080p sind schon fast 2,1 Mio. Also bräuchte man rein nach der Logik ca. 60% mehr Leistung! Die Rechnung geht natürlich nicht ganz auf, da die benötigte Leistung nicht komplett linear zur Auflösung ist und auch noch Leistung für AI usw. gebracht wird.

Allerdings stand in früheren News, dass ca. 10% der Leistung für Kinect reserviert wurden. Das dürfte auf keinen Fall ausreichen, um die Leistung auszugleichen.

Maverick 30 Pro-Gamer - - 283656 - 11. Juli 2014 - 15:54 #

Ich mache meine Wahl der Plattform bei den Multiplattform-Titeln eher von dem Handling des Controllers oder den vorhandenen Online-Freunden (z.B. bei Multiplayer-Titeln) abhängig als primär von den Unterschieden bei der Auflösung.

Marulez 15 Kenner - P - 3576 - 11. Juli 2014 - 20:05 #

Dito, habe ich mich auch für die xbox One entschieden. Ich kann mit diesem ps4 Controller einfach nicht. Ist mir einfach zu klein und finde die trigger schrecklich. Aber das ist natürlich auch gewohnungs Sache.

Passatuner 14 Komm-Experte - P - 2302 - 11. Juli 2014 - 20:34 #

Ich habe beide Konsolen, aber ertappe mich immer dabei, einen Titel, den es für beide Konsolen gibt, eher für die One zu holen, einfach weil Controller und Multiplayer irgendwie besser funktionieren. War schon bei PS3 und Xbox360 so. Auf ein paar Zeilen Auflösung kommt's mir nicht an.

Maverick 30 Pro-Gamer - - 283656 - 11. Juli 2014 - 20:43 #

Ich habe Xbox One und PS4 (Xbox 360 und PS 3 auch) und habe auch schon einige Zeit mit dem PS-Controller gezockt, aber eine Gewöhnung bzw. ein gutes Steuerungsgefühl stellt sich bei mir nach all der Zeit immer noch nicht ein. Naja, für die Exklusivtitel schau ich drüber weg. ^^

Spiritogre 18 Doppel-Voter - 12740 - 12. Juli 2014 - 13:21 #

Bei mir ist es anders rum, ich mag den PS Controller, weil mir der X Controller einfach zu klobig ist. Am PC habe ich auch ein Logitech Rumblepad, welches sich am PS Controller orientiert und nicht das 360 Pad.

Vampiro 22 AAA-Gamer - P - 35715 - 11. Juli 2014 - 16:51 #

1080p vs 900p sind schon ziemlich viele Pixel.

Wenn dann die PS4 vllt. mal auf 900 muss, wo muss dann die Xbox hin? Und imho macht das schon sichtbar einen Unterschied. Ist wie früher, als es hieß man sieht doch eh keinen Unterschied zu HD ;)

Maverick_M 18 Doppel-Voter - 11671 - 11. Juli 2014 - 17:58 #

> Wenn man Third-Party-Spiele, die in unterschiedliche Auflösungen und
> mit verschiedenen Framerates laufen, direkt nebeneinander stellt,
> ziehe ich es in Zweifel, dass man den Unterschied sieht, wenn man das
> Spiel nicht gerade auf einem mehr als 60 Zoll großen Bildschirm
> laufen lässt. Ich persönlich könnte den Unterschied jedenfalls nicht
> sehen.

Vielleicht sollte der gute einfach mal zum Augenarzt. Eine Nicht-native Auflösung bleibt immer unscharf, verschwommen, ggf. sogar Pixelig. Das hat gar nichts mit der Diagonale zu tun. Auf größeren Diagonalen ist der Effekt höchstens noch dramatischer. Aber auf handelsüblichen ~40" sollte das bei einem Direktvergleich sogar ein Blinder sehen.

Jesterfox 10 Kommunikator - 418 - 11. Juli 2014 - 18:21 #

Wir hatten das Thema schon in einem anderen Thread. Die meisten TVs laufen out of the Box mit Overscan, d.h. du hast sowieso keine native Darstellung. Die wenigsten wissen um die Thematik uns suchen danach wie man das abschaltet (PC Modus, Just Scan oder ähnliches). Von daher ist der Unterschied zwischen 900p und 1080p oft gar nicht so groß zu erkennen.

Wenn man die Konsole natürlich am PC Monitor betreibt sieht das anders aus...

Maverick_M 18 Doppel-Voter - 11671 - 11. Juli 2014 - 19:03 #

Und wie ich auch dort schon schrieb, ist das grober Unfug.

Außerdem: Nur weil manche Leute ihre Geräte nicht richtig einstellen können, heißt das nicht, dass der Unterschied nicht sichtbar ist. Oder dass es plötzlich egal ist, mit welcher Auflösung man zuspielt. Dementsprechend wäre der Loudness War der 90er Jahre ja auch in Ordnung gewesen. Oder es wäre in Ordnung, dass Fußball Rasen plötzlich weniger Grün ist im gesendeten Bild, nur weil manche Leute die Sättigung am Bildregler ins Unermessliche treiben.

Jesterfox 10 Kommunikator - 418 - 11. Juli 2014 - 22:46 #

Tja... willkommen in der Welt des Marketings. "Wir" Leute die Bescheid wissen sind eine absolute Minderheit und für die großen Firmen uninteressant. Die Masse hat von Technik keinen Plan.

Ich will damit definitiv nicht behaupten das ich das gut finde, ich will nur klarstellen warum das so ist...

Wobei zumindest das Geheule um die Auflösung schon n bissl übertrieben ist. Bei nem guten Spiel zählt keiner die Pixel. Ansonsten ist er kein Gamer sondern Pixelzähler ;-)

Maverick_M 18 Doppel-Voter - 11671 - 12. Juli 2014 - 1:45 #

Ich würde jederzeit lieber die Effekte runterstellen, statt die Auflösung. Gibt nichts schlimmeres als ein verschwommenes/unscharfes/interpoliertes Bild.

Jesterfox 10 Kommunikator - 418 - 12. Juli 2014 - 12:10 #

Also als ich meinen Bekannten Crysis 2 in 3D auf meinem 46" TV vorgeführt hab hat jeder gesagt: "geile Grafik", "geiler 3D Effekt" und keiner "ihh das ist ja nur 720p!" ;-)

Spiritogre 18 Doppel-Voter - 12740 - 12. Juli 2014 - 13:20 #

Es sind ja auch 900p ... ^^

Jesterfox 10 Kommunikator - 418 - 12. Juli 2014 - 14:01 #

Ne, 3D auf dem TV läuft mit 720p, da HDMI nicht mehr hergibt (bei 1080p hätte man noch max. 30Hz, ist bei RPGs Grenzwertig und für Shooter untauglich), deswegen war Crysis 2 nur 720p (noch dazu mit einem Samsung 46D6500 der in 3D eh kein FullHD kann...). War übrigens auch keine Konsole sondern mein PC ;-)

Spiritogre 18 Doppel-Voter - 12740 - 12. Juli 2014 - 14:10 #

Danke für die Aufklärung, ich meinte allerdings sowieso Ryse, welches in 900p und nicht 720p läuft. Und 3D, insbesondere beim Vorführen, ist sowieso noch mal was völlig anderes als normales Bild.

Maverick_M 18 Doppel-Voter - 11671 - 12. Juli 2014 - 16:22 #

Herzlichen Glückwunsch, Du hast Bekannte, die Tomaten auf den Augen haben!

Jesterfox 10 Kommunikator - 418 - 13. Juli 2014 - 17:04 #

Nö, die interessieren sich halt nur nicht für Pixel sondern für die Gesamtpräsentation. Einem gestandenen Pixelzähler mit Diplom mag das zwar seltsam vorkommen, ist aber so ;-)

Maverick_M 18 Doppel-Voter - 11671 - 13. Juli 2014 - 19:55 #

Mag Dir zwar seltsam vorkommen, aber ein Matsch-Bild beeindruckt mich keineswegs. Aber wenn Leute so etwas wie Monitore mit TN Panele oder Fernseher/Monitore mit verspiegelten Oberflächen, weil "die Farben so schön bunt sind!" toll finden, wundert mich gar nichts mehr.

Insofern: Es mag Deine Bekannten nicht stören/interessieren. Aber sie haben trotzdem Unrecht.

Jesterfox 10 Kommunikator - 418 - 13. Juli 2014 - 21:49 #

Worin haben sie unrecht, das ihnen die 3D-Grafik von Crysis 2 in 720p gefallen hat? Sollte man das nicht ihnen überlassen? ;-)

Maverick_M 18 Doppel-Voter - 11671 - 14. Juli 2014 - 0:43 #

Mit Deiner implizierten Bestätigung, es würde keiner (Deiner Freunde) den Unterschied sehen.

Fairfax 11 Forenversteher - 703 - 11. Juli 2014 - 20:44 #

Auflösung ist nicht alles. In 2-3 Jahren wenn die Entwickler die neuen Konsolen wirklich ausreizen können, wird man auf dem PC und zu einem gewissen Grad auch auf der der PS4 diverse Licht-, Partikel- und andere Effekte bestaunen können, die auf der Xbox One flüssig einfach unmöglich sind.

Trotzdem wär mir das immer noch egal, weil es mir tatsächlich auf die Spiele ankommt. Aber auch da ist nach meinem persönlichem Geschmack Sony vorne, nur Quantum Break für die X1 finde ich interessant...

Bruno Lawrie 16 Übertalent - P - 5966 - 12. Juli 2014 - 11:36 #

Wenn die Xbox One verkaufszahlentechnisch jetzt nicht total abstürzt, ist sie eine relevante Größe im Markt. Die Spielehersteller wollen auch nicht alles doppelt entwickeln. Bei den Crossplattformtiteln - und das sind ja die meisten - wird man sich dann eher an der Xbox One orientieren. So war das in jeder Konsolengeneration, für die erste Xbox, die viel schneller als die PS2 war, gab es ja auch kaum Spiele, die besser aussahen.

Von daher bekommt die bessere Optik nur bei PS4-Exklusivtiteln. Beim Rest wird die PS4 eher bei der Framerate und vielleicht bei der Auflösung Vorteile haben.

Für den PC entwickelt leider eh kaum einer mehr separat. V.a. wäre das in den nächsten drei Jahren ja auch nur für das Highend-Segment des PC-Markts, Spiele mit Nextgen-Optik laufen ja auf keinem Notebook mit Intel-GPU mehr. Und der größte GPU-Hersteller für PCs ist Intel, das wird gern übersehen. Der Großteil der PCs ist also nicht in der Lage Spiele für PS4/Xbox One flüssig hinzubekommen.

Spiritogre 18 Doppel-Voter - 12740 - 12. Juli 2014 - 13:25 #

"Von daher bekommt die bessere Optik nur bei PS4-Exklusivtiteln. Beim Rest wird die PS4 eher bei der Framerate und vielleicht bei der Auflösung Vorteile haben."

Ich finde schon, dass das durchaus ein großer optischer Unterschied sein kein.

"Und der größte GPU-Hersteller für PCs ist Intel, das wird gern übersehen. Der Großteil der PCs ist also nicht in der Lage Spiele für PS4/Xbox One flüssig hinzubekommen."

Schlechter Vergleich, da die meisten dieser PCs absolut nicht zum Spielen genutzt werden.

Maverick_M 18 Doppel-Voter - 11671 - 12. Juli 2014 - 16:27 #

> ...Spiele mit Nextgen-Optik laufen ja auf keinem Notebook mit
> Intel-GPU mehr. Und der größte GPU-Hersteller für PCs ist Intel, das
> wird gern übersehen. Der Großteil der PCs ist also nicht in der Lage
> Spiele für PS4/Xbox One flüssig hinzubekommen.

Eine Intel Iris iGPU reicht aus um die meisten Spiele in mittleren bis höheren Details darzustellen, bei gängigen Auflösungen bis 1080p. Und da man ja am PC so etwas schönes hat wie Grafikoptionen, womit Deiner Aussage nach ja alle überfordert sind, ist das auch kein Problem da das ein oder andere aktuelle Spiel drauf laufen zu lassen.

Leute, die nur eine Intel GPU nutzen, spielen auch kein Crysis 3 oder Battlefield 4.

Bruno Lawrie 16 Übertalent - P - 5966 - 12. Juli 2014 - 22:05 #

Aber nur die Spiele, die für die LastGen konzipiert und auf den PC portiert wurden. Die Spiele, die PS4 und Xbox One richtig nutzen, wie z.B. das nächste Assassin's Creed, werden auch mit der Iris-GPU überhaupt nicht gut laufen.

Und wir reden ja hier von der Zukunft, da kann man nicht mehr von Spiele, die auf Xbox 360 und PS3 ausgerichtet wurden, ausgehen.

PC, die genug Power für solche Spiele haben, sind nur ein kleiner Teil des Spielemarkts und wenig relevant. Wobei die Menge im Moment mit PS4 und Xbox One, die ja gerade mal auf 11 Mio. Exemplare kommen, noch gut mithalten kann. Aber das wird sich schnell ändern.

Maverick_M 18 Doppel-Voter - 11671 - 13. Juli 2014 - 20:00 #

Ich sehe vor allem Spiele wie ein League of Legends, mit rund 70 Millionen Spielern auf solchen Rechnern.
Ein Assassin's Creed interessiert solche Leute nicht.

MichaelK. 11 Forenversteher - P - 600 - 12. Juli 2014 - 21:00 #

Man ist doch jetzt schon am Anschlag bei der Hardware. Was will man da noch großartig ausreizen? Ist ja nicht wie bei 360 oder PS3 wo man spezielle Cell oder Power PC mit Dingenskirchen Grafik hat, sondern da ist ja standard 0815 PC HW verbaut, bis auf den etwas schnelleren Speicher den sich CPU und GPU Teil teilen...

Bruno Lawrie 16 Übertalent - P - 5966 - 13. Juli 2014 - 14:58 #

Bei den neuen Konsolen? Da wird eher an der Oberfläche gekratzt.

Aktuell bekommen die ja fast nur aufgehübschte LastGen-Titel, wie der PC bisher schon. Wenn die Entwickler diese alten Geräte komplett ignorieren können, ist da einiges mehr drin.

Der PC ist auch kein gutes Beispiel, weil der seit Jahren nicht ausgenutzt wird, da gibt es keine Erfahrung mit.

Viel Potential steckt noch in den Themen Multicore-Programmierung, Tesselation, Physik, Shader 5.0 usw.. In der Hinsicht werden die neuen Konsolen überhaupt nicht ausgenutzt. Dass aktuelle Spiele darauf mit 30fps und 900p laufen, hat da auch gar nichts zu sagen. Solche Limitierungen gab es auch in den ersten Spielen der LastGen und da waren noch große Grafiksprünge drin.

Dazu kommt auch noch die Kreativität von Entwicklern, die viel ausmachen können. Techniken wie FXAA und SSAO kamen spät im letzten Konsolenzyklus und hoben die optische Qualität spürbar an.

Und woran man auch schön sehen kann, wohin der Weg führt: vergleiche einfach momentane Spiele mit den angekündigten, die in ein bis zwei Jahren kommen, z.B. "The Witcher 3" und "The Division". Schon da sieht man, dass schon früh sehr viel bessere Grafik möglich ist.

Maverick_M 18 Doppel-Voter - 11671 - 13. Juli 2014 - 20:04 #

> Bei den neuen Konsolen? Da wird eher an der Oberfläche gekratzt.

Sorry, aber das ist pure Illusion.

> Und woran man auch schön sehen kann, wohin der Weg führt: vergleiche
> einfach momentane Spiele mit den angekündigten, die in ein bis zwei
> Jahren kommen, z.B. "The Witcher 3" und "The Division". Schon da
> sieht man, dass schon früh sehr viel bessere Grafik möglich ist.

Bei The Division wurde der Downgrade bereits zugegeben. Lediglich The Witcher 3 wird - wenn überhaupt - auch wirklich so gut aussehen, wie auf den Screenshots. Aber nur auf High-End PCs. Die Konsolen-Versionen werden ziemlich bescheiden aussehen.

Bruno Lawrie 16 Übertalent - P - 5966 - 14. Juli 2014 - 22:09 #

Gut, ich werde dich in vier Jahren an dieses Posting erinnern. :-)

MichaelK. 11 Forenversteher - P - 600 - 19. Juli 2014 - 12:42 #

Glaubst du nur weil die Speicheranbindung schneller ist, wird aus langsamen Amd CPUs und mittlerer Grafikhardware High End Grafik möglich? Die Programmierer können vieles, aber Zaubern nicht unbedingt.

Bruno Lawrie 16 Übertalent - P - 5966 - 19. Juli 2014 - 16:48 #

Wo schreibe ich denn was von Speicheranbindung?

Ansonsten nenn ich in meinem Posting ja schon genügend Gründe, warum es noch große Grafiksteigerungen auf den Konsolen in den nächsten Jahren geben wird.

DarkVamp 12 Trollwächter - 929 - 11. Juli 2014 - 21:58 #

Die ersten Entwickler scheinen langsam zu verstehen was Tiled Reederin bedeutet und welche Vorteile es im Zusammenhang mit dem genialen ESRAM der Xbox One bringt. Bereits Ende dieses Jahres wird es kein third Party Game mehr geben welches auf der PS4 in höherer Auflösung als auf der Xbox One läuft.

Für vorhandene Spiele sind bereits Patches in Arbeit (z.B. TitanFall)

helba1 13 Koop-Gamer - P - 1796 - 11. Juli 2014 - 22:49 #

Einfach abwarten, es ist ja so, dass auch die PS 4 Tiling beherrscht.

Vampiro 22 AAA-Gamer - P - 35715 - 12. Juli 2014 - 6:54 #

Offtopic: Wie cool, ein Artgenosse ;)

Lorin 16 Übertalent - P - 4187 - 12. Juli 2014 - 10:09 #

Ich muss da leider widersprechen. Ja, mit dem passenden Rendering kann man den ES-Ram besser nutzen und damit die ganze Sache beschleunigen und vor allem die 1080p erreichen weil der ES-Ram ggf nicht so schnell überläuft.

Es bleibt trotzdem noch das Problem dass die X1 einfach weniger Shader hat. Sie KANN niemals die Geschwindigkeit der PS4 in Hardware erreichen. So mancher Entwickler könnte sich entscheiden einfach die Auflösung auf der X1 etwas zu reduzieren um nicht an den Effekten für eine Version schrauben zu müssen.

Da geht es dann nur noch um Programmierkunst. Analog zur PS3 wird die X1 immer etwas hinten dran hängen und (fast) immer die etwas schlechteren Versionen bei Crossplattformtiteln bekommen. Nur die Exclusivtitel werden ordentlich was reissen.
Sony hat aus dem PS3-Programmierdesaster gelernt, MS muss das anscheinend jetzt mit der X1 lernen.

Sgt. Nukem 15 Kenner - P - 3666 - 12. Juli 2014 - 20:57 #

Es bleibt trotzdem noch das Problem dass die X1 einfach weniger Shader hat. Sie KANN niemals die Geschwindigkeit der PS4 in Hardware erreichen.
---
Naja, die X360 konnte auf dem Papier auch niemals die Rechenleistung der PS3 (in Gigaflops) erreichen, trotzdem sahen Multiplatform-Titel meist auf der Box besser aus. Ich finde die Box hat ganz andere Probleme... ;)

Nokrahs 16 Übertalent - 5815 - 12. Juli 2014 - 7:07 #

Einfach die Cloud hochfahren.

Bruno Lawrie 16 Übertalent - P - 5966 - 12. Juli 2014 - 11:39 #

Langsameres RAM durch Onlinelösungen, die tausende Male langsamer als das langsame RAM sind, zu kompensieren, klingt nach einer klasse Idee. Ich hoffe der Kommentar war nur ironisch gemeint.

Nokrahs 16 Übertalent - 5815 - 12. Juli 2014 - 13:10 #

Ja, sorry. Hab den "smiley" hinter dem Kommentar vergessen.
War ein GG News Insider im Bezug auf diese News:

http://www.gamersglobal.de/news/71559/xbox-one-soll-unbegrenzte-leistung-dank-cloud-haben

Slaytanic 23 Langzeituser - P - 40731 - 12. Juli 2014 - 13:20 #

Das ist keine Ironie, das ist Marketing von MS. ;)

Rubio The Cruel 12 Trollwächter - 1078 - 12. Juli 2014 - 17:36 #

sorry harv, ich seh den unterschied zwischen 720 und 1080 schon auf einem 5-zoll smartphone...

Cat Toaster (unregistriert) 12. Juli 2014 - 21:06 #

Mantle wurde "zufällig" genau für solche Fälle und Hardware entwickelt. Und mit BF4, DAI und Thief gibt´s sogar schon Software dafür. :)

RaiseyourDongers 06 Bewerter - 64 - 13. Juli 2014 - 12:15 #

Wird sicher einfach mit der Schrotthardware. Sie können die Spiele ja in 10FPS laufen lassen, dann schafft das Ding vielleich 1920x1080!

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)