Im Rahmen der E3 hatte Blizzard bereits bestätigt, dass die so genannte Ultimate Evil Edition von Diablo 3 (zum Vorschaubericht) auf Xbox One nur in 900p laufen wird, während die PS4-Fassung nativ in 1080p läuft (wir berichteten). Wie Senior Producer Julia Humphreys gegenüber Ausgamers.com sagte, ist diese Beschränkung aber noch nicht in Stein gemeißelt.
Laut ihr ist es im Rahmen des Möglichen, dass das Spiel auch auf der Microsoft-Konsole in 1080p läuft. Derzeit befinde man sich im Dialog mit dem Konsolenhersteller um gemeinsam herauszufinden, wie man die 1080p doch noch ermögliche. Davon abgesehen sollen sich die grafischen Unterschiede ohnehin kaum bemerkbar machen. Abgesehen von der Auflösung würde die Xbox-One-Version alle Spezifikationen der PS4-Fassung teilen, also etwa bei Texturqualität oder der Framerate, die auf beiden Plattformen konstant bei 60 Bildern pro Sekunde liegen soll.
Klar ist zwischen 1080p und 900p kein so großer unterschied mehr. Aber Blizzard hat anscheinend wirklich gemerkt das sie sich hiermit lächerlich machen. Natürlich läuft ein Diablo 3 in 1080p auf der Xbox One, das sollte ohne Propleme technisch machbar sein.
Auf einer Konsole wo Wolfenstein in 1080p läuft oder ein open World Racer wie Forza Horizon 2....
http://www.youtube.com/watch?v=YBcAQ0a8p6w
"Klar ist zwischen 1080p und 900p kein so großer unterschied mehr."
Obacht, das sieht nur so wenig aus. 1080p sind in der Höhe zwar nur 20% mehr als 900p, betrachtet man aber das gesamte darzustellende Bild dann müssen 44% mehr Pixel berechnet werden. Und das ist dann schon ne Menge.
Trotzdem würd ich schätzen das ein Großteil der Spieler den Unterschied in nem Blind-Vergleich vermutlich nicht bemerken würden. Denn eine Konsole läuft meist an einem TV der eh nicht 1:1 mappt sondern mit Overscan läuft, damit wirds eh verwaschen.
Spätestens wenn man in der Action vom Spiel drin ist zählt eh keiner mehr die Pixel, die Auflösung ist also nur für schlechte und langweilige Spiele wichtig ;-)
Oh das will ich auch gar nicht bezweifeln, ich bin auch davon überzeugt daß der ganz überwiegende Teil der Spieler den Unterschied nicht sehen wird bzw. auch gar nicht in der Lage ist den Unterschied zwischen 720p und 1080p zu erklären oder auch generell nicht weiß was das ist. Mir ging es nur darum daß ein kleines Erhöhen der nativen Auflösung eine deutliche Mehrarbeit für den Grafik-Chip bedeutet.
Overscan!? Wann leben wir denn!? 1990!?
Das ist das erste was ich an einem modernen Fernseher ausschalte.
Bei meinem war das per Default aus ^^
Ja, konkret kenne ich kein aktuelles Modell der namhaften Hersteller, bei dem die Funktion noch aktiviert ist. Aber das mag natürlich nicht für alle Hersteller und jedes Modell gelten ;)
Ich glaub das ist spätestens mit FullHD (wie ich den begriff zusammen mit HD Ready hasse!) ausgestorben.
Dürfte hinkommen. Bei meinem 720p Projektor musste ich den Overscan noch ausschalten.
Also bei meinen 2 Sammys (die innerhalb von 6 Jahren beide schon verreckt sind, nie wieder Samsung) musste ich erst den PC Modus aktivieren damit der Overscan weg ist. Jemand der das nicht weiß muss halt damit leben... und das wird der Großteil der Bevölkerung sein, denn die interessieren sich nicht für solche Technikdetails, die schließen nur an und daddeln los.
Also ich hatte zuletzt einen Toshiba und einen Sharp in den Händen und beide hatten Overscan im Standard Menü.
Mit Verlaub: Mir ist ziemlich egal, was Otto Normalo da draußen macht.
Wen die Auflösungs-Diskussion nicht interessiert, soll sie einfach nicht lesen und ignorieren. Ist ja auch nichts schlimmes dabei. Unwissenheit kann manchmal durchaus ein Segen sein.
Ich dagegen sehe auf den ersten Blick, ob das Bild skaliert ist, oder Overscan an/aus ist, etc..
Wenn dir die Auflösung so wichtig ist kauf dir nen PC mit entsprechendem Monitor und ignorier die Konsolen. Jammer aber dann nicht das der Monitor knapp 1k€ kostet und es unter 4 Titans im SLI ruckelt ;-)
FullHD Auflösungen hab ich schon vor Jahren hinter mir gelassen. Und ich hab keine Konsole (mehr).
Nach 2 Totalausfällen in der Garantiezeit (Netzteil, Backlight) zeigt sich mein Uralt-"Samsung LCDTV" seit 2009 plötzlich erstaunlich robust. Verkalkulierte geplante Obsoleszenz? ;)
die auflösung allein sagt aber auch nichts über die grafische qualität (aka polygone, texturen, aa, af, etc) aus
Könnte mir vorstellen, dass ein Spiel wie D3 auch noch viele weitere Anforderungen an die Hardware stellt.
Nicht nur Grafik. Das muss die XBone natürlich auch stemmen. Der Shooter oder Rennespiel Vergleich ist also nicht unbedingt günstig gewählt, da hier möglicherweise mehr Ressourcen für die optische Präsentation zu Verfügung stehen.
Vielleicht optimiert Blizzard ja noch ein wenig und macht Platz für mehr Eye Candy.
Die 900p haben auf der XB One eine besondere Bewandtnis. Wenn man einen deferred Renderer verwendet dann ist das die maximale Auflösung bei der das Rendertarget noch in den ESRAM passt. Will man 1080p muss man entweder auf das schnelle postprocessing des deferred Renderings oder auf den schnellen ESRAM für den Puffer verzichten (was den Renderer auch wieder ausbremst)
Sehe ich auch so....
Absolut Lächerlich wenn sie es nicht hinbekommen würden!
Fragt sich halt was wirklich lächerlich ist, dann... Die Leistung der aktuellen Konsolen-Generation, oder die Engine von Diablo3.
Wie schon oft erwähnt (auch hier) 32MB EDRAM und dazu DDR3 gegen GDDR5.
Nutzen sie den EDRam und damit wohl auch andere Effekte geht das nunmal zu lasten der Auflösung.
Oder anders ausgedrückt, der Grund warum immer gesagt wird das die XBONE schwächer ist stammt nicht aus dem Nirvana und wenn man sich der Unterschiede nicht bewusst ist sollte man sich mit Ausdrücken wie lächerlich zurück halten.
Auch nicht zwangsweise zu Lasten der Auflösung. Man muss auch nicht das ganze Bild im ESRAM ablegen, das ist halt nur der bequemste Weg, der am wenigsten Aufwand macht und wohl aus Kostengründen bei der Entwicklung gern genutzt wird.
Wie will man denn nicht das ganze Bild ablegen... nur die obere Hälfte bekommt dann nur die extra Effekte?
Die einzige Wahl die man hat ist entweder auf deferred Rendering mit seinen Vorteilen beim Post Processing zu verzichten oder den ESRAM mit seinem Geschwindigkeitsvorteil zu ignorieren. Beides hat seine Nachteile.
Kann mir einer ausrechnen, was die mehr Pixel an Spielspass ausmachen? Habe die Formel gerade nicht im Kopf. Vielen Dank.
65021 Bananen.
Ich glaube das verwechselst du gerade mit einem Donkey Kong Teil :).
Nein, jeder weiß, dass Bananen das Universalmaß ist. Für Größe, Geschwindigkeit, Länge und eben auch Spielspaß ;-)
Ähm die Krümmung nicht zu vergessen! Die ist wichtig für den Orgasmus.
Das glaube ich nicht! Wo ist die Fischwaage!?
42 ^^
Gerne! 1080p sind 2.073.600 Pixel pro Frame, was bei 60 Bildern die Sekunde 124.416.000 Pixeln pro Sekunde entspricht. 900p sind 1.440.000 Pixel pro Frame, was bei 60 Bildern die Sekunde 86.400.000 Pixeln pro Sekunde entspricht. Das ist ein Unterschied von 38.016.000 Pixeln pro Spielsekunde!
Ausgehend von dieser schon 412 Tage alten News (http://www.pcgamesn.com/diablo/145-million-people-have-played-diablo-3-average-193-hours) beträgt die durchschnittliche Spielzeit eines Spielers zum damaligem Zeitpunkt 193 Stunden. Berechnet man nun die verpassten Pixel, erhält man die wahnsinnige Zahl 26.413.516.800.000, oder ausgeschrieben 26 Billionen 413 Milliarden 516 Millionen und 800 Tausend Pixel.
Nimmt man nun den von der Stanford University herausgefundenen und weltweit gültigen SpPF (Spielspass pro Pixel Faktor) und multipliziert diesen mit der oben stehenden Zahl verpasster Pixel, erhält man den Mehrwert der Pixel: 0, oder ausgeschrieben Null. Das ist zudem das Ergebnis, das man erhält, wenn man versucht auszurechnen, wie sinnvoll diese News ist.
Dein Ergebnis gefällt mir, weil dieser sehr schön zurechtgelegt... äh... hergeleitet wurde ;0)
Hinweis an alle Nichtmathematiker: Der SpPF wird auf Null festgelegt, multipliziert man irgendeine Zahl mit Null, dann ist das Ergebnis immer Null.
245 Metric Shit-Tons.
Ist halt psychologisch. Die neuen Konsolen müssen ja irgendeinen Mehrwert haben.
Die alten Konsolen hatten in der Regel 720p (einige Titel sogar schon 1080p) aber leider nur mäßige Kantenglättung. Bei den neuen Konsolen will man dann wenigstens die 1080p, immerhin steht bald UHD / 4k vor der Tür.
Hätten die alten Konsolen vernünftige Kantenglättung, dann wären die neuen Konsolen nämlich quasi so gut wie überflüssig, da viele Menschen am TV nicht mal den Unterschied zwischen 720p und 1080p sehen würden.
D3 auf den Konsolen ist halt ein Witz. Die Auflösung und FPS sind egal, bei der nicht vorhandenen Monster-Dichte... auf dem PC hat man locker 10x soviele Monster gleichzeitig auf dem Schirm.
Blödsinn.
Monster-Dichte ist aber ein schöner Begriff ;-)
Monster-Dichte muss man immer mögen, außer bei Dead Space 2+3 ;0)
Ich kann nicht beurteilen ob in der Konsolenversion wirklich weniger Monster dargestellt werden. Ich werde mal zählen... 1,2,5... argh... die sterben zu schnell!
Aber ich glaube deine Behauptung nicht, die neuen Konsolen sind aufgrund Ihrer Technologie eher für Massendarstellungen ausgelegt, und diese ist besser als bei einem Durchschnitts-PC (ich kenne keinen 400-Euro-PC mit 8 Kernen inkl. dieser Grafikpower).
Ich frag mich ja wie das Spiel in Rifts, besonders zu viert mit konstant 60 FPS laufen soll wenn dies nichtmal auf highend PCs der Fall ist.
Ich habe auf meinem I5-3570K@4,2Ghz mit GTX 670OC Drops bis in den einstelligen Bereich in Rifts (ist auf bestimmten Maps extrem, auf anderen kein Problem).
Im US Forum sind etliche Threads wo Leute mit noch besseren Systemen das gleiche Problem haben seit RoS.
Es ist egal ob die Grafik auf max oder min steht, kein Unterschied da die Engine nur Singlethread ist wie alle anderen Blizzard Games und es somit ins CPU-Limit läuft.
Wenn ich da an die im Vergleich zu aktuellen Intels geradezu lächerlich langsamen Konsolen AMD CPUs denke, muss Blizzard ja gezwungenermaßen auf Multithread umgestellt haben für die PS4/XBone Versionen (Blizz suchte ja auch Programmierer für Konsolen die sich auf Multithread spezialisiert haben).
Falls dem wirklich so ist, wäre es mal an der Zeit diese Optimierungen auch für den PC zu bringen (Blizz streitet ja immer noch ab das es an D3 liegt, nein die PCs der Spieler sind Schuld ;)).