The Witcher 3 auf Konsole: Framerate schlägt Auflösung [U]

PC XOne PS4
Bild von Nico Carvalho
Nico Carvalho 24253 EXP - Freier Redakteur,R10,S8,A8
Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreichtBronze-Archivar: Hat Stufe 5 der Archivar-Klasse erreichtLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Schreiber: Hat Stufe5 der Schreiber-Klasse erreichtBronze-Reporter: Hat Stufe 6 der Reporter-Klasse erreichtTester: Hat 5 Spiele- oder Hardwaretests veröffentlichtScreenshot-Geselle: Hat 500 Screenshots hochgeladenRedigier-Veteran: Verdiente 1000 EXP durch Edits fremder News/ArtikelStar: Hat 1000 Kudos für eigene News/Artikel erhalten

21. August 2014 - 12:56 — vor 2 Jahren zuletzt aktualisiert
The Witcher 3 - Wild Hunt ab 26,90 € bei Amazon.de kaufen.

Update vom 18:10 Uhr:

Inzwischen hat CD Projekts Marketing Manager Tomasz Tinc zu den Aussagen Texeiras, dass The Witcher 3 auf den Konsolen möglicherweise keine Auflösung von 1080p erreichen werde, Stellung bezogen. Gegenüber dem Magazin Gamespot gibt er an, dass der Titel konstant optimiert werde und derzeit noch keine Zahlen fest stehen:

Wie [Texeira] sagte, arbeiten wir hart daran, das Spiel zu optimieren. Es ist noch nichts in Stein gemeißelt. Unser Engine-Team bleibt optimistisch und wir werden sicherlich das Maximum aus jeder Konsole quetschen.

Bevor der Optimierungsprozess abgeschlossen sei, könne das polnische Studio keine konkreten Zahlen zur finalen Framerate oder Auflösung sagen, so Tinc.

Ursprüngliche News von 12:56 Uhr:

The Witcher 3 - Wild Hunt (GG-Angeschaut) gehört zu den grafisch aufwändigsten und beeindruckendsten Spielen der diesjährigen gamescom, Eindrücke vom Titel könnt ihr euch im 35-minütigen Gameplay-Video einholen (wir berichteten). Aufgrund der grafischen Opulenz stellt sich jedoch die Frage, wie gut die Konsolenversion aussehen wird und ob sie im Vergleich zur PC-Fassung einige Abstriche hinnehmen muss. Ein anonymer Insider hat noch im April behauptet, dass The Witcher 3 auf der Konsole ungefähr den niedrigen Details der Computer-Version entsprechen würde. Dies wurde von CD Projekt Red nicht bestätigt. Im Bezug zur Auflösung und Framerate hat sich inzwischen jedoch Jose Texeira, Visual Effect Artist beim polnischen Studio, in einem Interview mit dem Magazin Worldsfactory zu Wort gemeldet. Laut ihm liege dem Team eine stabile Bildwiederholrate von 30 FPS eher am Herzen als das Erreichen von 1080p – wobei Letzteres "wahrscheinlich nicht" erreicht werde.

Idealerweise drängen wir auf 30 Bilder pro Sekunde. Bei der Auflösung kommt es noch darauf an, wir arbeiten daran, um sie so hoch wie möglich ausfallen zu lassen. Wenn wir 1080p erreichen können, dann machen wir das natürlich. Aber ich kann nicht sagen, dass wir es schaffen werden. Um ehrlich zu sein, weiß ich es wirklich nicht. Wahrscheinlich nicht. Aber wir benötigen eine ausgeglichene Framerate, also mindestens 30 FPS.

Die Arbeit an den Konsolen schreitet allerdings deutlich besser voran als erwartet, wie Texeira verrät. So hätte das Entwicklerteam vermutet, dass das Spiel zu Beginn auf PS4 und Xbox One nur abstürzen würde, bis einige Zeit in die Optimierung gesteckt werde. Allerdings lief es bereits von Beginn:

Wir erwarteten, dass [The Witcher 3] gar nicht funktionieren und einfach abstürzen würde, weil es so aufwändig ist. Aber es läuft tatsächlich. Wir sind noch nicht ganz dort, [wo wir sein wollen,] aber es läuft. Mit noch etwas mehr Optimierung werden wir es gut zum Laufen bekommen.

In einem weiteren gamescom-Interview mit Dualshockers gibt sich der Visual Effect Artist sogar noch optimistischer. Laut ihm wären manche Bereiche des Spiels auf Konsole sogar bereits mit 30 Bildern pro Sekunde vollständig spielbar. Allerdings könne er noch nicht mit Sicherheit sagen, ob die schlussendliche Framerate im Spiel festgelegt oder dynamisch ausfällt.

Ob sich die Worte von Texeira bewahrheiten, könnt ihr ab dem 24. Februar 2015 selbst erfahren – denn dann erscheint The Witcher 3 - Wild Hunt für PC, Xbox One und PS4.

steever 17 Shapeshifter - P - 6126 - 21. August 2014 - 12:58 #

Kein 1080p auf Konsolen? Hab meine Vorbestellung storniert!

vicbrother (unregistriert) 21. August 2014 - 13:57 #

Soweit ich die Debatten verfolgt habe ging es doch immer nur um 30 oder 60FPS bei 1080p, hier ist nicht mal sicher, ob 30FPS bei 1080p erreicht werden können? Unschön.

Maryn 13 Koop-Gamer - 1361 - 21. August 2014 - 17:22 #

Naja nun - es ist eine Konsole.
Konstante Hardware hat eben nicht nur Vorteile.

steever 17 Shapeshifter - P - 6126 - 21. August 2014 - 17:36 #

war ja jetzt auch nicht wirklich ernst gemeint. ;) Mir sind 1080p ansich total egal, hab meinen Spaß auch mit 720p und gar darunter. Nur leider scheint es derzeit absolut wichtig zu sein, dass ein Spiel 1080p erreicht, koste es was es wolle... so als wäre alles unter 1080p nicht mehr viel wert gespielt zu werden.

NoUseForAName 17 Shapeshifter - 7080 - 21. August 2014 - 23:32 #

Ich schaue auch gerne ältere Filme - sind diese auf Grund des schlechteren Bildes nun nicht mehr so unterhaltsam? Ganz im Gegenteil. So lange einen die Story packt, sollte die Auflösung doch wirklich zweitrangig sein.

guapo 18 Doppel-Voter - 10625 - 21. August 2014 - 23:39 #

Hatte die Antwort auch schon im Kopf: wenn man mal an die alten b/w Hitchcock denkt ..

Bruchpilot 11 Forenversteher - 740 - 22. August 2014 - 2:02 #

Schau mir trotzdem lieber die HD-Umwandlung von alten Filmen an.

Naja aber wer sich ne Konsole holt, braucht auch keine Qualität, sondern will Komfort und Einfachheit. Und genau das bekommt er oder sie... keine Qualität. :P

Das wäre ja nicht schlimm, wenn wir PC´ler nicht darunter leiden müssten... Bei uns wird dann oft die Qualität runtergeschraubt damit die Spiele überhaupt auf den Konsolen lauffähig sind.

Waffelbruch (unregistriert) 22. August 2014 - 9:43 #

Vielleicht die PCler mal mehr Originale kaufen. Dann wären sie vielleicht auch relevanter für den Markt.

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 13:59 #

haha ich lach mich schlapp. Der war gut! Und so originell! Und so unglaublich wahr! Das wenn überhaupt halbe Prozent Marktanteil muss schon ach lassen wir das. Meine Schenkel tun mir vor klopfen schon so weh ich brauch Pause ^^.

Waffelbruch (unregistriert) 22. August 2014 - 14:28 #

Zudem ist die Frage, wie hoch die Verbreitung von leistungsfähigen Rechnern ist. Der Großteil der PC-Masse wird wahrscheinlich nur für Internetsurfen und Wimmelbildspiele genutzt.

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 14:34 #

Du willst das ich vor lachen sterbe oder?

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:35 #

Statistiken aus der Szene selbst (Etwa von großen Download-Portalen) zeigen, dass wesentlich mehr Konsolenspiele raubkopiert werden als PC Spiele.

Hmmm, seltsam, nicht wahr!?

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 15:52 #

Du willst doch nicht nem Troll mit Zahlen kommen?

Just my two cents 16 Übertalent - 4757 - 22. August 2014 - 2:11 #

Dann liegt ihr beide falsch...

Die alten Filme haben keine niedrigere "Auflösung". 35mm Film hat sowas nicht. Vernünftiger Standard für die Digitalisierung dieser alten Schätze ist eine Abtastung des analogen Materials in einer 4K Auflösung (4096 x 2160). Selbst wenn diese Filme nur in 2K Auflösung gemastert werden ist es mehr als FullHD.

Gut gemasterte Filme sehen dann nicht nur im TV, sondern auch im Kino mehr als gut aus...

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 7:46 #

Von falsch kann man nicht sprechen:
- Schwarzweiss (darauf beziehe ich mich im wesentlichen) hat nunmal keine Farben :-)

- Remastering kostet ordentlich, also braucht man Geld und entsprechende Power

Maik 20 Gold-Gamer - - 21896 - 22. August 2014 - 7:57 #

Schwarzweiß ergibt eine Menge Grautöne und das ist eine Farbe. :)

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 8:14 #

Da haben sie 28 Grautöne
https://www.youtube.com/watch?v=ckIrhRKwgCg

Daeif 19 Megatalent - 13770 - 22. August 2014 - 19:34 #

S/W als unterlegende Technik anzusehen ist aber auch diskussionswürdig. Klar, zunächst gab es nichts anderes und später war sowas wie Technicolor erst noch sauteuer. Aber etwa um die Siebziger herum gabs auch viele Filme, die s/w zu einer künstlerischen Wahl gemacht haben. Man denke an Eraserhead, verschiedene Jim-Jarmusch-Filme, Schindlers Liste, Good Night and Good Luck... mit Renaissance gibts sogar einen CGI-Film in s/w.

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 20:09 #

Das passt im Vergleich doch aber super. 8-Bit-Optik mit 2 mal 3 Pixel-Auflösung und wird heute auch immer wieder gern für bestimmte Spiele genutzt.

Daeif 19 Megatalent - 13770 - 23. August 2014 - 13:11 #

Wenn man denn unbedingt Film und Spiel auf dieser Ebene miteinander vergleichen müsste, dann würde ich dem am ehesten zustimmen. Ein Fez z.B. würde mit der Unreal Engine 4 wohl nicht funktionieren.

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 23:41 #

Falls du mir das unterstellen solltest, ich gehe d'accord mit deiner Einschätzung. Aber die Masse sucht (vermeintlich) perfekte Technik (16.7 Mio Farben), hohe GHz-Zahlen, hohe Auflösungen, etc...

vicbrother (unregistriert) 23. August 2014 - 12:08 #

... die für ein RPG, dessen Spielantrieb ja auch viel von der Entdeckung und Erkundung abhängt, sicherlich nicht nebensächlich ist. ;)

Daeif 19 Megatalent - 13770 - 23. August 2014 - 13:21 #

Klar. Ich denke da vor allem an Gothic. Wenn man da durch die mit vielen Pflanzen bewachsenen Wälder lief und plötzlich von einem Monster angegriffen wurde, weil man es übersehen hat - das ist in 8-Bit nicht zu reproduzieren.

guapo 18 Doppel-Voter - 10625 - 23. August 2014 - 13:56 #

Ab einer gewissen thread-Tiefe dreht man sich im Kreis

J.C. (unregistriert) 23. August 2014 - 14:03 #

Eine topologisch hochinteressante Behauptung! :O

Daeif 19 Megatalent - 13770 - 23. August 2014 - 13:16 #

Sicher sucht die Masse das. Gibts im Film auch. Der Grund etwa, warum das 90er-Jahre-Remake von Psycho existiert ist der, dass Leute ungern Filme in s/w sehen, auch wenn die Geschichte noch so spannend ist. Aber die Masse hat nicht gerade ein tiefgründiges Verhältnis zur jeweiligen Medienform mit ihren individuellen künstlerischen Ausdrucksformen.

guapo 18 Doppel-Voter - 10625 - 23. August 2014 - 13:56 #

Diskutiere mit Vicbother weiter :-)

vicbrother (unregistriert) 23. August 2014 - 17:08 #

Gern. Ich sehe jeden Film, jedes Buch, jedes Hörspiel als eigene Interpretation des Stoffs. Damit hat jedes Werk seinen künstlerischen Wert und Sinn, aber das hält mich nicht davon ab bspw die erste Moby-Dick-Verfilmung (1956) besser als Buch, Hörspiele und die anderen Verfilmungen zu sehen und diese zu verwerfen.

NoUseForAName 17 Shapeshifter - 7080 - 22. August 2014 - 11:14 #

Das habe ich gar nicht bedacht. Stimmt schon. An der Kernaussage meienr Meining ändert das aber nicht viel. Ich spiele auch gerne noch Mario Kart auf dem SNES und habe dabei Spass...

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:33 #

Dummerweise werden aber Filme schon seit fast von Anfang an auf 35mm gedreht. Und aus einem solchen 35mm Filmstreifen lassen sich ohne weiteres Auflösungen bis deutlich über 4k herausholen. Wie gut die Bildqualität ist, hängt hier also eindeutig vom Zustand der Filmrolle und ggf. dem Aufwand der Nachbearbeitung nach.

Ich habe Filme aus den 20er und 30er Jahren gesehen, respektive in meiner Sammlung, die bessere Bildqualität bieten als so mancher aktuelle Film.

Die aktuellen Konsolen schaffen es dagegen nicht einmal die native Auflösung Deines FullHD Fernsehers anzusprechen. Das ist mehr als traurig.

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 17:20 #

Der vergleich hinkt doch total:
erstens gibts auch 16 und 72mm :-)

eigentlich geht's um den Mastering Aufwand, in zwei Jahren werden die coder auch mehr aus (beiden) Konsolen rausholen können

Just my two cents 16 Übertalent - 4757 - 22. August 2014 - 23:49 #

70mm. ;)

guapo 18 Doppel-Voter - 10625 - 23. August 2014 - 0:09 #

aufmerksam, aber an der Kernaussage vorbei

Jadiger 16 Übertalent - 5331 - 22. August 2014 - 9:15 #

klar weil Sony vor allem Sony Microsoft ständig unter die Nase reibt wie schlimm es sei keine 1080p zuhaben. Das man aber selbst nicht in der Lage ist anspruchsvolle Titel in 1080p zu befeuern sollte man vielleicht einfach mal Still sein.
Das ganze Hauptsache 1080p und 30 Fps ist sowieso ein Witz, sowie Metro das gemacht hat das ist in Ordnung. Lieber Grafik Einstellungen zurück schrauben dafür gescheite Fps zahlen bekommen. Negativ Beispiel ist für mich the Order keine 1080p sondern noch einen verkleinerten Bildausschnitt das ja angeblich Filmischer aussehen sollte. Woll eher im Vollbild läuft es nicht mehr, den zur Fps aussage das es keine 30 Fps halten könnte, kam das soll zur Filmischen Inszenierung bei tragen.

Sven Gellersen Community-Moderator - P - 24221 - 22. August 2014 - 9:41 #

"klar weil Sony vor allem Sony Microsoft ständig unter die Nase reibt wie schlimm es sei keine 1080p zuhaben."

-> Mal wieder meine Lieblingsfrage an Dich: Kannst Du Deine Behauptung in dieser Form irgendwie belegen? Oder ist das wieder einmal ein alberner Konsolen-Trollversuch?

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 14:01 #

Wann hat Sony zuletzt nochmal gesagt "haha MS die können nichtmal 1080p"? Hilf mir bitte auf die Sprünge.

Sven Gellersen Community-Moderator - P - 24221 - 22. August 2014 - 15:42 #

Nun sind wir schon zwei, die das wissen wollen. Aber ich fürchte, wir werden bei Jadiger vergeblich warten.

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 17:21 #

Da ich beide Konsolen nicht habe: die Sony-Fanboys kapern schon häufiger M$-News als umgekehrt.

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 17:23 #

Und Sony hat die dafür bezahlt oder wie? :p

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 17:30 #

Das habe ich weder gedacht, geschrieben noch gemeint. Aber das weisst du ja.
[schlechtes rhetorische Mittel]

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 17:35 #

Ich wollte nur darauf aufmerksam machen, dass es mit Sony nichts zu tun hat, wenn irgendwelche Sony-Fans irgendwo was schreiben :)

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 17:27 #

Ja auf Transfermarkt.de posten auch immer erst die FCB Fans in BVB Threads deswegen haben auch die BVB Verantwortlichen irgendwas davon was dise FCB Fans schreiben gesagt.

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 17:31 #

kenne URI und Seite nicht, aber ja: anderswo ist's ähnlich

Thomas Barth 21 Motivator - 27682 - 21. August 2014 - 12:59 #

Ich weiß es! Deaktiviert doch einfach das Über-Sampling. ;)

Ukewa 15 Kenner - 3689 - 21. August 2014 - 16:33 #

Vielleicht - und das ist jetzt nur Spekulation - bekommen sie die 30fps hin, wenn die Grafik deaktiviert wird. Besser als nix!

ChuckBROOZeG 19 Megatalent - 19336 - 21. August 2014 - 19:09 #

Ach Quark einfach die Eingabegeräte deaktivieren und als selbstlaufende Demo ... passt :-D.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:37 #

Vorgerendert wohl gemerkt. Denn sonst klappts immer noch nicht. :D

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 15:53 #

Dann aber auch 4k 60Fps!

Ukewa 15 Kenner - 3689 - 22. August 2014 - 17:50 #

Naja, oder sie machen ein 2D-Kniffel-Spiel draus! In Full-HD!!

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 17:53 #

Für nen 4 Gewinnt sind bestimmt auch beide Konsolen gut ^^

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 18:00 #

dann ist bestimmt die KI scheiße

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 18:03 #

Man kann nicht alles haben!

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 18:08 #

oder es sterben Menschen in $KRISENHERD

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 18:17 #

Nein! Oder man benutzt einen PC :-D.

Solar (unregistriert) 21. August 2014 - 13:06 #

Was für eine Überraschung. Ich hätte fast gedacht, das bisherige Material lief alles auf Konsolen ....NOT!
Witcher ist und war schon immer ein PC-Only Franchise. Die Konsolen können froh sein, diesmal einen Port dahingeklatscht zu kommen. CDPR nimmt das Geld gerne um die PC-Version besser zu machen und die Konsolen-Typen sind ja sowieso Matschgrafik in 720p/30fps gewohnt.

Solar (unregistriert) 21. August 2014 - 13:07 #

"Laut ihm wären manche Bereiche des Spiels auf Konsole sogar bereits mit 30 Bildern pro Sekunde vollständig spielbar."

In einer Haus-Ecke, wenn man auf den Boden guckt?

Valeo 15 Kenner - 2785 - 21. August 2014 - 15:48 #

Der Loading-Screen.

steever 17 Shapeshifter - P - 6126 - 21. August 2014 - 13:09 #

2 von 3 Wichter-Spielen gibt es auf Konsolen... so sehr PC-only scheint es nicht zu sein. Und Witcher 2 auf Konsolen war ein sehr guter Port. Wird hier sicher nicht anders sein.

rammmses 18 Doppel-Voter - P - 12845 - 21. August 2014 - 13:24 #

Hat zwar ewig gedauert, aber der Port war wirklich super, sowohl Grafik als auch Steuerung. Denke bei Teil 3 wird das nicht großartig anders, schon allein, weil da ein Großteil der Verkäufe generiert wird.

Jonas -ZG- 18 Doppel-Voter - P - 10511 - 21. August 2014 - 14:44 #

Unterschätze die Verkäufe auf den PC nicht, gerade die DRM Politik von CD Projekt trägt seinen Teil dazu bei das die Spieler das auch honorieren.

rammmses 18 Doppel-Voter - P - 12845 - 21. August 2014 - 14:49 #

Ja, da bin ich sehr gespannt. Aber allein schon die vermutlich abnormen Hardware-Anforderungen werden dann doch viele ausschließen. Ich meine, wenn sie schon auf der Lesitungsfähigkeit der neuen Konsolen rumhacken, wird das sicher nicht für Standard-Rechner optimiert.

Jonas -ZG- 18 Doppel-Voter - P - 10511 - 21. August 2014 - 14:53 #

Da geb ich dir recht. So gehts mir bei Witcher 2 vernünftiges Spielen kaum möglich und mein Rechner schafft sonst noch alle aktuellen Spiele. xD

bigboulder 13 Koop-Gamer - 1348 - 21. August 2014 - 15:23 #

??

Das lief selbst auf meiner alten Kiste Intel Q9650 Gtx 570 Phantom in Full Hd und allem Firlefanz auf high und on absolut flüssig.

Amd Kunde? ;-)

Jonas -ZG- 18 Doppel-Voter - P - 10511 - 21. August 2014 - 17:21 #

Nope schon Intel die Anforderungen schafft mein Rechner locker nur habe ich immer massive Frameeinbrüche und irgendwann hab ich es aufgegeben zu suchen worans den liegt.

Azzi (unregistriert) 21. August 2014 - 15:17 #

Ich weiss heutzutage ist man sowas kaum noch gewöhnt, aber am PC kann man tatsächlich die Details runterstellen. Dann laufen Spiele auch auf schlechteren Rechnern noch.

Arparso 15 Kenner - 3025 - 21. August 2014 - 16:36 #

Kommt drauf an, woran es hakt. Wenn die CPU überfordert ist, hilft auch das Reduzieren der Grafikdetails oft nichts mehr.

J.C. (unregistriert) 21. August 2014 - 17:17 #

Dann hat man aber eine sehr, sehr betagte CPU!

Nagrach 14 Komm-Experte - 2288 - 22. August 2014 - 14:48 #

The Witcher 1 wurde doch eingestellt für Konsole? kam das jetzt doch noch?

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:40 #

Noe.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:39 #

Ist auch völlig unerheblich, ob es die auch auf Konsolen gibt.
CD Projekt Red machte es (bisher) richtig. Zuerst die PC Version. Dann den "Breakdown" auf Konsolen. Ganz im Gegenteil zu vielen anderen Entwicklern.

Ob das bei Teil 3 auch so aufgeht, werden wir ja sehen.

Just my two cents 16 Übertalent - 4757 - 21. August 2014 - 13:33 #

Das war auch mein erster Gedanke, dass beantwortet die Frage ob das gezeigte die Konsolenversion gewesen ist und da stellt sich dann die nächste - sind die Konsolen in der Lage das Spiel in der Qualität mit 30 Frames darzustellen und dann bei welcher Auflösung? Vermutlich wird es auf Konsolen nicht so aussehen wie in den bisherigen Präsentationen...

Es ist aber schonmal zu begüßen, dass CD Project hier anscheinend tatsächlich den PC als Lead Plattform nutzt.

Azzi (unregistriert) 21. August 2014 - 13:48 #

Quark, Witcher2 ist immer noch eins der hübschesten Old-Gen Konsolenspiele und läuft auch mit Gamepad ganz gut. Warum soll es ein reines PC Spiel sein?
Solange ich am PC mein gewohntes Witcher kriege, gönne ich auch den Konsoleros diese tolle Serie...

ChuckBROOZeG 19 Megatalent - 19336 - 21. August 2014 - 19:19 #

Jo so missgünstiges Gedankengut das andere ein Spiel gar nicht haben sollen braucht man nicht.
Solange jede Plattform ordentlich genutzt wird sollen doch alle jedes Spiel haben.

Nagrach 14 Komm-Experte - 2288 - 22. August 2014 - 14:49 #

Ist ja auch gut für den Entwickler, und CD-Project sind (noch) kein Multimillarden Dollar Konzern. (War Gog.com nicht sogar mehr mals schon kurz vor dem Bankrott?)

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 15:19 #

Die Bankrott-Meldung war ein Marketing-Witz. Von tatsächlichen Fast-Bankrott-Meldungen habe ich jedenfalls noch nicht gehört.

Nagrach 14 Komm-Experte - 2288 - 22. August 2014 - 15:39 #

Hm. Entweder hast dus dann noch nicht gehört oder einige nehmen den Witz immer noch ernst. Von Gog.com selbst hab ich zugegebenermaßen auch noch nichts gehört.

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 15:41 #

Es gibt auf jeden Fall immer noch Leute, die diesen Scherz ernst nehmen bzw. bei denen sich das irgendwie eingebrannt hat. Ob das jetzt auch Grund für die Geschichten ist, die du kennst, kann ich aber auch nicht sagen ^^

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:41 #

Lustigerweise sehe ich aber meistens die Konsoleros jubeln, wenn ein neues "Exklusivspiel" angekündigt wird...

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 15:56 #

Ja darauf hab ich angespielt!
Juhu endlich was exclusives das mir meine Entscheidung für die Plattform gerechtfertigt.
Noch besser sind diejenigen die meinen "dieses jenes welches Spiel hätte ich doch noch lieber als Exclusivspiel.
Und am schärfsten (aber ganz seltenen zum Glück) sind die die meinen das Spiel als Exclusivspiel würde es interessanter machen.

Green Yoshi 20 Gold-Gamer - 24837 - 21. August 2014 - 13:50 #

PC-Gaming mag für E-Sports die bessere Plattform sein, aber mir geht mit Tastatur+Maus vor dem Monitor die für ein so ein Spiel notwendige Immersion flöten. Da nehme ich die schwächere Grafik gerne in Kauf.

Sp00kyFox 18 Doppel-Voter - 11532 - 21. August 2014 - 13:56 #

hindert dich niemand daran, die pc-version mittels gamepad vorm TV zu spielen.

Green Yoshi 20 Gold-Gamer - 24837 - 21. August 2014 - 14:07 #

Dafür hab ich den falschen PC. ^^
Aber mit einem Laptop ist das natürlich kein Problem.

Und bei vielen PC-Spielen wie z.B. Mass Effect ist mir aufgefallen, dass es überhaupt keine Gamepad-Unterstützung gibt oder wenn nur für das 360-Gamepad for Windows.

Sp00kyFox 18 Doppel-Voter - 11532 - 21. August 2014 - 14:13 #

für letzteres problem gibts das tool x360ce. damit kannste dann auch wieder beliebige controller verwenden in solchen spielen.

Larnak 21 Motivator - P - 26055 - 21. August 2014 - 18:21 #

"Dafür hab ich den falschen PC. ^^"
Es gibt noch PCs ohne USB-Anschluss? :p

Green Yoshi 20 Gold-Gamer - 24837 - 21. August 2014 - 22:20 #

Nein, aber Desktop-PCs die man eben nicht durch die Wohnung schleppt.

guapo 18 Doppel-Voter - 10625 - 21. August 2014 - 22:24 #

Iss mehr Spinat! :)

Larnak 21 Motivator - P - 26055 - 21. August 2014 - 22:57 #

Och, ich mach das manchmal. Gerade neulich für Dark Souls hab ich mir den ein Wochenende an den Fernseher gestöpselt :)

Just my two cents 16 Übertalent - 4757 - 21. August 2014 - 13:58 #

Mein Rechner hängt am 46 Zoll TV und ich habe ein Gamepad - beste beider Welten... :)

calleg 14 Komm-Experte - 2479 - 21. August 2014 - 15:36 #

Meiner an einem 55zoll und ich habe zwei (!) gamepads! Dann kann ich sogar weiterspielen, wenn die batterien im ersten leer sind!

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:45 #

Man könnte sich auch einfach noch ein Paar Eneloops kaufen und dann einfach die Akkus wechseln ;)

bigboulder 13 Koop-Gamer - 1348 - 21. August 2014 - 15:26 #

"..aber mir geht mit Tastatur+Maus vor dem Monitor die für ein so ein Spiel notwendige Immersion flöten. "

Das kann ich nur schwer nachvollziehen.

Ich habe meinen Pc auch teilsweise über den Fernseher laufen und Spiele Shooter und ähnliche Genres in Egosicht preferiert auf dem Monitor. Mit 5.1 Headset und ner vernünftigen Maus/Tastatur ist mein immersives Erlebnis so um einiges besser als distaniert vorm Fernseher.

ChuckBROOZeG 19 Megatalent - 19336 - 21. August 2014 - 19:16 #

Vor allem die vor dem Körper zwanghaft zusamgegehaltenen Arme am Controller reissen mich da immer raus aus der "Immersion"

Keine Ahnung die natürlicher ausseinander liegenden Arbe bei Maus/Tastatur liegt mir mehr.

Nagrach 14 Komm-Experte - 2288 - 22. August 2014 - 14:53 #

ICh hab mal versucht DMC3 mit Gamepad auf dem PC zu spielen, ich hab so grandios versagt, das ich wieder Tastatur und Maus genommen hab... damit gings besser (aber auch nicht gut^^)

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 15:05 #

Hehe ist sicher auch ne Frage der Gewohnheit.

Aber ich hab vor 2 Wochen erst mal versucht eines der angeblich besten Spiele aller Zeiten zu spielen, Ocarina of Time, und sorry dieses Gamepaddingsteurung ging gar nicht.
Den wirklich genau ausrichten war nicht drin und ständig war die Auswirkung der Eingabe (des Analogsticks) anders ...
Ok liegt natürlich auch am Steuerkonzept schräg von oben aber doch nicht 3rd Person mit mitdrehendem Boden sondern fester Boden und die Figur immer anders (Größe und Richtung).
Nach ner Stunde hab ich das Ding einfach ausgemacht und keinen Bock mehr ^^.

Spiritogre 18 Doppel-Voter - 11995 - 22. August 2014 - 23:59 #

OoT auf dem N64 mit N64 Controller? Oder etwa mit Emulator auf PC und unpassendem Standard-Joypad?

Das Spiel ist extrem auf das N64 Pad ausgelegt. Und dieses Pad benötigt etwas Einarbeitung, da es damals wie auch heute durchaus zunächst mal ungewohnt ist. Am besten ist, man übt mit Mario 64 ein wenig.

PS: Die 3DS Version von OoT ist ein wenig einfacher in der Handhabung.

ChuckBROOZeG 19 Megatalent - 19336 - 23. August 2014 - 0:23 #

Das war ein originaler N64 an einem echt schlecht skalierendem HD Ready TV ... grausam! Beides Steuerung und Aussehen ^^

Spiritogre 18 Doppel-Voter - 11995 - 22. August 2014 - 23:55 #

Ich spiele am PC auch lieber mit Maus und Tastatur. Ich habe ein gutes Gamepad aber gefühlt spielt sich mit Pad dort einfach nicht so flüssig, weiß auch nicht, woran das liegt.

Anders herum würde ich ein Spiel wie DMC aber auch nie auf dem PC spielen. Das ist für mich ein klassischer Konsolen- und auch Joypad-Titel.

ChuckBROOZeG 19 Megatalent - 19336 - 23. August 2014 - 0:24 #

Also Rogue Legacy hab ich in der Tat lieber mit Pad gespielt.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:46 #

Ich spiele wirklich sehr gerne auch mal mit dem Gamepad am Rechner. (Tomb Raider, Assassin's Creed und dergleichen kommt für mich ohne Gamepad gar nicht in Frage.) Aber die Gamepad Steuerung bei The Witcher 2 war deutlich schlechter als die Maus/Tastatur Steuerung.

Mich persönlich würde ja eher das eingeschränkte Sichtfeld der Konsolen (lumpige 16:9) der Immersion berauben. Aber das sind alles Luxusprobleme...

Toxe 21 Motivator - P - 29971 - 22. August 2014 - 15:48 #

Ach bitte, jetzt tu doch nicht so als hätte die Mehrheit der Spieler etwas breiteres als ein 16:9 Display zu Hause...

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 15:59 #

Nee ich glaube auch nicht das er auf breiter aus war ^^.
16:10 ist nämlich das schickere Format :-P.

Maverick_M 18 Doppel-Voter - 11642 - 23. August 2014 - 3:02 #

Doch, war ich. Habe aktuell einen 21:9. Davor hatte ich ein Triple-Monitor-Setup. (48:10)

Das war einer der Gründe, warum ich meine 360 seit Jahren nicht mehr angerührt habe, bis ich sie endgültig verkauft habe.

Toxe 21 Motivator - P - 29971 - 23. August 2014 - 11:20 #

Aber was glaubst Du denn, wie viele Leute etwas breiteres als 16:x haben? (Spoiler: Kaum jemand.)

J.C. (unregistriert) 23. August 2014 - 12:28 #

Na da warte mal ab.
http://www.cnet.de/88135218/ifa-lg-zeigt-219-curved-ultrawide-display-und-monitor-fuer-gamer/

:D

Larnak 21 Motivator - P - 26055 - 23. August 2014 - 12:30 #

Er hat nie irgendwo behauptet, dass viele etwas breiteres haben. Er hat nur gesagt, dass es für ihn persönlich der Grund ist, warum Konsolen nicht mehr in Frage kommen.

Maverick_M 18 Doppel-Voter - 11642 - 23. August 2014 - 19:38 #

Richtig. Die Immersion durch das breitere Format will ich nicht mehr missen.
Abgesehen davon: Vor 5-10 Jahren hatte auch noch kaum einer einen 16:9 Bildschirm, und jetzt ist er Standard.
Ich denke, 21:9 wird der neue Standard. Die TV Hersteller springen jetzt ja auch auf den Zug auf. 4K ist als Zugpferd im TV Segment nicht gut genug. Das schickere Beinahe-Cinemascope Format dann aber schon. Ich denke, da werden viele den Nutzen eher sehen.

Sp00kyFox 18 Doppel-Voter - 11532 - 23. August 2014 - 19:51 #

bevorzuge im pc-bereich immer noch 16:10-geräte und die werden ja auch noch angeboten.

ChuckBROOZeG 19 Megatalent - 19336 - 23. August 2014 - 20:04 #

Was aber leider immer weiter zurück geht :-(

Mein liebstes Setup auf dem Schreibtisch ist ein 16:10 und ein 4:3 mit gleicher Ppi und vertikaler Auflösung.
Aber das kann ich mir leider mittlerweile abschminken.

Sp00kyFox 18 Doppel-Voter - 11532 - 23. August 2014 - 21:16 #

16:9 würde ich ja auch noch akzeptieren. darüber wirds mir aber zu dumm, da ich doch hier und da mal pivot-modus nutze. das ist bei so einem extremen widescreen-format allerdings ziemlich dämlich.

ChuckBROOZeG 19 Megatalent - 19336 - 23. August 2014 - 21:42 #

16:9 und breiter bei reinen Multimedia (wie Fernseher btw Tele 5 bester Sender Ever man bekommt jeden Haifilm zu sehen ^^) Geräten ok.

Am Computer finde ich das persönlich eher blödsinnig, dann halt doch gleich 2 Monitore (gibt ja auch fast Randlose bzw auf zusammenstellen optimierte).
Manche Sachen die man auf so einem breiten Sichtfeld parallel machen möchte profitieren halt auch von Vollbild was dann nicht mehr geht. Z.b. was Film/serienmässiges auf dem zweitschirm laufen lassen und auf dem Hauptschirm arbeiten/recherchieren/spielen. Ich zB hab bei manchen Spielen (Beispielsweise OpenXcom oder D3) auf dem Zweitschirm noch eine Youtbube Playlist laufen, und prinzipiell beim Multiplayer spielen den TS, Statistiktool und Trillian laufen.

Maverick_M 18 Doppel-Voter - 11642 - 24. August 2014 - 0:17 #

Für solche Dinge habe ich neben dem 21:9er parallel noch einen 16:10 im Portrait-Modus. Ohne Multi-Monitor geht nicht... Bin seit 15 Jahren Multi-Monitor Nutzer, mit nur einem Bildschirm könnte ich nicht mehr arbeiten :D
Gezockt wird aktuell aber "nur noch" auf einem 21:9er. Das Format ist schick, bietet ein breiteres, Rahmenfreies Sichtfeld.

vicbrother (unregistriert) 24. August 2014 - 12:50 #

Ich wünschte Notebooks hätten Doppelmonitore...
Ansonsten habe ich an meinen Dockingstations immer zwei weitere Monitore, davon einen im Hochformat. Das ist wirklich genial zum Lesen von Webseiten.

Toxe 21 Motivator - P - 29971 - 24. August 2014 - 0:43 #

Zum Arbeiten benutze ich auch 16:10 Monitore, und ich verstehe auch nicht, warum sich das nie durchgesetzt hat. Schade drum.

ChuckBROOZeG 19 Megatalent - 19336 - 24. August 2014 - 0:59 #

Im Endeffekt passt mit bei 1080 Bildpunkten einfach zu wenig Text auf eine Seite.
Mal schauen wie das in ein paar Jahren mit höherer ppi aussieht. Im Endeffekt passiert ja auch ne Art Skalierung so das es durchaus sein kann das sich die Bildhöhe im Textbereich größer "anfühlt".
Dann kann ich auch mit 16:9 oder breiter leben.
Alternativ muss ich wirklich wenn mein 27Zöller jetzt den Arsch hoch macht dann mit nem Pivot Gerät für Webbrowser und co arbeiten.

Spiritogre 18 Doppel-Voter - 11995 - 24. August 2014 - 15:24 #

Mein alter 22 Zöller hat auch 16:10, bei meinem neuen 27 Zöller mit 16:9 ist die Bildhöhe nur minimal größer. Schon bei dem alten fand ich viele Webseiten, gerade wie diese hier, einfach ungünstig. Von daher bin ich sehr dankbar, dass der neue Monitor eine Pivotfunktion hat. Das macht das Lesen bzw auch Bearbeiten von Texten gleich viel angenehmer.

ChuckBROOZeG 19 Megatalent - 19336 - 24. August 2014 - 15:34 #

Ja Webseiten mit festen Frames, was heutzutage Standard ist, ich hasse es.

guapo 18 Doppel-Voter - 10625 - 23. August 2014 - 19:54 #

Auch wenn CS was feines ist, belegen kannst du das aber nicht, oder?
Test hat vor kurzem UHD-TVs getestet und sieht dort offenbar die größte Zugkraft.

Maverick_M 18 Doppel-Voter - 11642 - 24. August 2014 - 0:26 #

Noe. Nur meine persönliche Einschätzung.
Dank fehlendem Material wirst Du den Average Joe nicht davon überzeugen können, warum 4k nun so viel besser als Full-HD sein soll. Blu-Rays bieten noch keine 4k, erste Streaming-Dienste die 4k streamen fangen auch gerade erst an. Und dort ist die Bitrate eher mies und ohnehin die Breitbandanbindung in Deutschland zu unterentwickelt.
Am PC benötigst Du enorm viel mehr Leistung für 4K Auflösungen, hast gleichzeitig aber unter Windows wieder andere Probleme, denn die DPI Skalierung unter Windows ist ziemliche Moppelkotze. Viele Programme funktionieren mit der Skalierung nicht ordentlich, selbst Windows selbst arbeitet hier nicht immer ordentlich.

Dem gegenüber steht bei 21:9 Monitoren knapp "nur" 20-30% benötigte Mehrleistung ggü. herkömmlichen 1440p bzw. 1080p Auflösungen, und die verfügbaren Monitore bieten ohnehin meist eine höhere Pixeldichte als die gängigen. Sind also auch sichtbar schärfer, ohne dass ich auf die Skalierung von Windows zurück greifen muss.
Am Fernseher sieht der Average Joe, dass er bei den allermeisten Filmen keine Balken mehr hat, was effektiv zu einem größeren Bild führt. Zumal das auch mit wirklich allen Filmen funktioniert, und man seine Blu-Rays oder DVDs nicht ausmisten muss. Vorhandenes 1080p Material nutzt das Format bereits voll aus.

Alles, was die Kunden sofort sehen, lässt sich erwiesenermaßen besser verkaufen, als Kleinigkeiten oder Eigenschaften, die man ihm erst erklären muss.

guapo 18 Doppel-Voter - 10625 - 24. August 2014 - 10:19 #

Willst du die aktuelle Situation besprechen oder wie eingangs die Zukunft?

- 4K ist doch längst da: Monitore ab 600€, TV-Geräte, BD-Player, Schnittstellen (DP)
- einfaches Upscaling von 1080p-Material, weil 4X (das geht nicht so leicht mit 1440p)
- DVB-T2 kommt voraussichtlich früher als geplant

Klar, wirds Leute geben, die keinen Unterschied sehen, aber es hat ja auch nicht jeder auf FullHD/DVD/BD gewechselt

vicbrother (unregistriert) 24. August 2014 - 12:53 #

Ob 4K je das deutsche TV erreicht? Die haben doch schon Probleme mit HD und bringen nur 720p zustande. Sky sendet zumindest in 1080p, aber die Kabelanbieter haben nicht genug Bandbreite oder stellen sich da aus anderen Gründen quer.

Ich finde der TV-Markt ist ein absolut kundenunfreundlicher Markt:
TV-Hersteller, TV-Sender, Kabelanbieter und Boxanbieter - keiner arbeitet gerne mit den anderen zusammen, selbst das EPG ist teilweise nur sichtbar, wenn man die entsprechenden Sender (RTL-Gruppe) einschaltet.

guapo 18 Doppel-Voter - 10625 - 24. August 2014 - 13:17 #

k.A. was das dt. TV anbetrifft. (Bilde mir ein die ÖR wollen mit DVB-T2 auf 1080p gehen). Privatsender: eh wurscht. International gibt's ne Roadmap: (s.u.)

Sehe als Zuspieler zunächst mal BD, PC, Kameras bzw: int'l:
2014: UHD-1 bei 30 Hertz. Nur erhöhte Auflösung, keine Verbesserungen der Bildqualität und Datentiefe. Einsatz: Demo-Sendungen.
Ab 2015: Demo-Sendungen für UHD-1 bei 50/60 Hertz. Erhöhte Datentiefe, kein erweiterter Farbraum. Einsatz: Pay-TV.
Ab 2017: Demo-Sendungen für UHD-1 bei 100/120 Hertz. Erhöhte Datentiefe, erweiterter Farbraum und höherer Kontrast nur auf der Produktionsseite. Bildwandlung im Empfänger.
Ab 2016: Testsendungen in Japan für UHD-2 bei 100/120 Hertz. Regelbetrieb ab 2020 möglich.

Sp00kyFox 18 Doppel-Voter - 11532 - 24. August 2014 - 13:10 #

das upscaling wird dadurch nicht einfacher, im gegenteil. es sind schließlich noch mehr pixel zu interpolieren. ob die zielauflösung nun ein ganzes vielfaches ist oder nicht, spiel nur für das naive nearestneighbor-verfahren eine rolle.
ist aber eh wayne, da die skalierung in monitoren/tv-geräten ohnehin hardware-implementiert ist.

Toxe 21 Motivator - P - 29971 - 24. August 2014 - 0:41 #

Ich hatte das, was Du weiter oben geschrieben hast, von der Aussage falsch interpretiert, von daher Schwamm drüber.

vicbrother (unregistriert) 23. August 2014 - 12:15 #

Optimal ist doch 27:9 oder irre ich mich?

Maverick_M 18 Doppel-Voter - 11642 - 23. August 2014 - 19:39 #

Keine Ahnung!?

vicbrother (unregistriert) 23. August 2014 - 20:08 #

Dachte du hättest da tieferen Einblick, ich fragte wegen dem natürlichen Blickwinkel.

Maverick_M 18 Doppel-Voter - 11642 - 24. August 2014 - 0:27 #

AFAIK gilt: Je breiter desto besser. Peripheres Sehen kann man trainieren. Ich merke durchaus, dass ich deutlich mehr im Augenwinkel wahrnehme, seit dem ich auf breiteren Formaten spiele, als früher.

vicbrother (unregistriert) 24. August 2014 - 12:48 #

Ja genau, aber irgendwann ist der Blickwinkel ausgereizt, daher dachte ich an 27:9 als optimales Format. Aber das periphere Sehen und die Kameraführung mit der Handlungszentrierung ist natürlich ein Argument dagegen. 21:9 klingt schon gut.

Talaron 16 Übertalent - 4019 - 21. August 2014 - 13:09 #

Also ich fand ja schon Witcher 2 auf der 360 ziemlich schick, und das sollte auf der Next-Gen doch hoffentlich um Längen übertroffen werden können. Wenn der dritte Teil als Spiel so gut wird wie erhofft, ist mir ziemlich egal, ob es jetzt 1080p, 900p oder sogar nur 720p sind.

Sorgen sollten sich lieber viele PC-Spieler machen, denen bei solchen Meldungen der Hochmut ins Gesicht steigt. Denn wenn auf der PS4 inkl. aller Optimierungen gerade so die niedrigen PC-Details laufen, dann wird für einen ziemlich großen Teil der Spieler ein neuer Rechnerkauf anstehen müssen, dessen Preis wohl die Anschaffungskosten jeder Next-Gen-Konsole deutlich übersteigen wird...

J.C. (unregistriert) 21. August 2014 - 13:12 #

So richtig gut optimiert schien mir die Engine noch nie zu sein, da zählte eher brute force Leistung. Was das angeht ist der PC weit vor den Konsolen.

volcatius (unregistriert) 21. August 2014 - 13:15 #

PS4+vernünftiger FullHD werden für mich teurer als den 6 Jahre alten PC in Rente zu schicken.

Aladan 22 AAA-Gamer - - 36422 - 21. August 2014 - 13:25 #

Wird auf der PS4 gespielt.

Mein PC schafft es zwar bestimmt auch, aber sicher nicht in der Qualität, wie es optimiert auf der Konsole läuft.

bigboulder 13 Koop-Gamer - 1348 - 21. August 2014 - 15:27 #

Mensch optimieren heisst runterschrauben!
Du bekommst auf der Konsole so oder so einen technisch limitierten Eindruck vom Spiel.

Aladan 22 AAA-Gamer - - 36422 - 21. August 2014 - 16:12 #

Ich gehe jetzt gar nicht weiter drauf ein, kann dir aber sagen das ich Grafikoptionen auf dem PC nicht leiden kann.

Nach "The Witcher 2", das ich sowohl auf PC (Max Einstellungen), als auch auf Konsole gespielt habe weiß ich, das Teil 3 für mich halt eher ein Spiel für die Konsole ist.

Nagrach 14 Komm-Experte - 2288 - 22. August 2014 - 14:58 #

Mein 4 Jahre Alter Rechner ist so Schnell wie ne PS4 Kosten: 500€ :P. (3,3Ghz x4 8GB Ram, GTX570^^)

Witcher 2 lief gut mit 30-50FPS auf Maximum, ok so Firlefanz wie Ubersampling (Hab da eh kein Unterschied gesehen) hat ich aus...

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:47 #

> ...dann wird für einen ziemlich großen Teil der Spieler ein neuer
> Rechnerkauf anstehen müssen, dessen Preis wohl die
> Anschaffungskosten jeder Next-Gen-Konsole deutlich übersteigen
> wird...

Und das wäre warum genau ein Problem...!?

Maik 20 Gold-Gamer - - 21896 - 21. August 2014 - 13:11 #

Noch eine Frameraten-News. Irgendwie nimmt das absurge Züge an.

Goldfinger72 15 Kenner - 3136 - 21. August 2014 - 13:18 #

Jup. Inhalte von Spielen zählen anscheinend nicht mehr. Es geht nur noch um virtuelle *******vergleiche bzgl. Auflösung und FPS. Schade, was aus diesem Hobby so langsam wird.

vicbrother (unregistriert) 21. August 2014 - 13:59 #

Wir sind halt verwöhnt und the Witcher 3 lebt halt auch gerade von seiner Grafikpracht.

Maik 20 Gold-Gamer - - 21896 - 21. August 2014 - 15:19 #

Schon klar und bin auch begeistert vom gesehenen Material. Jedoch ist es mir ziemlich egal. ob eine Dachkante 2-3 Pixel mehr hat. Für mich zählt die Stimmigkeit des Gesamtbildes und das kann auch bei geringerer Auflösung gut gelingen.

Aladan 22 AAA-Gamer - - 36422 - 21. August 2014 - 16:13 #

Ich hoffe vor allem endlich auf ein für mich interessantes Kampfsystem :-/

Teil 2 hat mich dabei fast soweit gehabt, dass ich die Segel streiche.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:48 #

Auch noch einmal für Dich:
Auflösung =!= 1080p => Interpolation => Komplettes Bild ist verwaschen.

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 17:22 #

es gibt auch andere upscaling-Verfahren

Maverick_M 18 Doppel-Voter - 11642 - 23. August 2014 - 3:05 #

Klar. Aber ordentliches Upscaling kostet einerseits auch wieder Performance. Oder man macht es in Hardware. Was verdammt teuer ist. Zumindest, wenn es ordentlich aussehen soll.

Auch der Mischmasch aus Interpoliertem 3D Bild und drüber gelegtem 1080p 2D HUD, wie es viele Spiele auf Konsolen machen, ist eher "Mehhh..." denn brauchbar... Zumindest meiner Meinung nach.

Spitter 13 Koop-Gamer - 1311 - 21. August 2014 - 16:41 #

So ist es. Bin es schon Überdrüssig jeden Tag so ne Kack FPS News zu lesen. Und dann immer direkt TOP-NEWS. Scheinbar ist 1080 P das wichtigste bei Spielen ! Das macht selbst eine Gurke zum 9.0 game .

Punisher 19 Megatalent - P - 15804 - 21. August 2014 - 19:29 #

Also, ich hab heute mal mit Wayne gesprochen, ihn interessieren diese News zu Frameraten und FullHD ohne Ende. Haben also schon eine Daseinsberechtigung.

Just my two cents 16 Übertalent - 4757 - 22. August 2014 - 14:37 #

Warum absurd? Es ist relevant. 360 und PS3 waren in etwa gleichwertig, meist sah die 360 Version leicht bessert auch, mal die PS3 Version.

Bei den Nachfolgern sieht es anders aus, MS hat irgendwas grundsätzlich verkackt. Ihre Konsole schafft bei vielen Titeln nicht den 1080p Standard, der bei dem Design der Konsole auch als Grundlage gedient haben muss, Sony hingegen schafft es bei den entsprechenden Cross-Plattform Titeln.

Und 900p, 792p oder 720p sehen jetzt zwar nicht katastrophal aus, der Unterschied ist aber auf einem vernünftigen 1080p Fernseher mit der entsprechenden Größe gut zu sehen...

Shark (unregistriert) 21. August 2014 - 13:11 #

Und was ist mit der WiiU Fassung?

*Öffnet eine Tüte Popcorn*

Sven Gellersen Community-Moderator - P - 24221 - 21. August 2014 - 15:17 #

Gott ist der Trollversuch schlecht.

furzklemmer 15 Kenner - 3173 - 21. August 2014 - 13:17 #

Naja, wir Konsoleros werden’s überleben. Wir haben die letzten Jahrhunderte mit schwächerer Grafik gelebt. Warum sollten wir das seit dieser Generation nicht mehr können?

Es gibt schlimmeres. Andere Menschen haben Ebola, leben auf der Krim oder sind Reporter in Syrien.

Nagrach 14 Komm-Experte - 2288 - 22. August 2014 - 14:56 #

"Vorsicht abgrundtief Geschmackloser Sarkasmus". Ja, deswegen braucht ihr ja nicht gleich den Kopf zu verlieren.

VikingBK1981 19 Megatalent - P - 14408 - 21. August 2014 - 13:17 #

Kann man Spiele nicht einfach rausbringen und fertig. Diese Technik Gelaber war vielleicht in den 80ern sinnvoll aber heute finde ich es unnötig.

Maik 20 Gold-Gamer - - 21896 - 21. August 2014 - 13:41 #

Technikgelaber gabs schon immer. Nur inzwischen entwickelt sich die Technik langsamer und es geht mehr in die Details wie eben Frameraten. Einen Unterschied zwischen 8 und 16 bit konnte man wenigstens noch richtig auswalzen.

Sp00kyFox 18 Doppel-Voter - 11532 - 21. August 2014 - 13:54 #

wobei bei letzterem kein direkter zusammenhang zur grafik besteht. insofern ist die heutige grafik-diskussion nicht so voller bullshit und pseudo-begriffen wie damals.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:51 #

Es gibt Leute, die interessieren sich dafür. Ich zum Beispiel.

vicbrother (unregistriert) 23. August 2014 - 12:19 #

Ich würde dir fast recht geben, aber leider gibt es a) den Standard 1080p und 60fps den noch immer nicht alle erreichen und b) Techniken die kaum diskutiert werden wie die der KI. Da werden wir noch Jahre drüber reden können, auch wenn kaum einer KI-Techniken kennen dürfte (bei Grafikdiskussionen ist es ja auch oft nur der Vergleich bekannter Hardware und Engines und wenig Detaildiskussion)

Green Yoshi 20 Gold-Gamer - 24837 - 21. August 2014 - 13:21 #

Ich schätze mal, das Spiel wird genauso wie Watch Dogs in 900p/792p laufen, aber Hauptsache sie müssen die Texturqualität nicht runterschrauben.

Der The Witcher 2 Port für die Xbox 360 war besser als alles was deutsche Studios in den letzten 10 Jahren auf Konsole zustande gebracht haben, mit Sacred 3 und Risen 3 gibt es ja aktuell wieder zwei Negativbeispiele.

J.C. (unregistriert) 21. August 2014 - 13:23 #

Die Texturqualität ist vor allem eine Speicherfrage, und da sind die Konsolen ja ganz gut ausgestattet.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:55 #

Wenn man bedenkt, dass der für das gesamte System gilt, ist das auch nicht mehr so viel. 4GiB Karten am PC haben halt 4GB direkt nur für die Grafik. Plus 8GiB+ für den Rest.

Abgesehen davon kannst Du eine Krüppel-APU nicht schneller machen indem Du den Speicher erhöhst. Das gleiche "Problem" haben auch Low-End Grafikkarten, die können mit der Speichermenge meist einfach nichts anfangen, weil sie nicht schnell genug sind.

rammmses 18 Doppel-Voter - P - 12845 - 21. August 2014 - 13:27 #

Wobei Watch Dogs auch nicht gerade gut optimiert war. Infamous lief ja auch in höherer Auflösung und ist wesentlich aufwändiger.

Green Yoshi 20 Gold-Gamer - 24837 - 21. August 2014 - 13:52 #

Aber infamous hat doch meines Wissens keine belebte Welt mit Autos, Passanten etc, oder?

rammmses 18 Doppel-Voter - P - 12845 - 21. August 2014 - 14:40 #

Doch hat es, es sind zwar etwas weniger Passanten als teilweise in WD, aber dafür gibt es in Infamous Gefechte mit 30 und mehr Gegnern und ein wesentlich höheres Spieltempo.

Tyntose 14 Komm-Experte - 1828 - 21. August 2014 - 13:42 #

"Framerate schlägt Auflösung", also man erreicht 30FPS durch Abstriche bei der Auflösung. Was wäre denn alternativ möglich? 1080p mit Ocarina of Time-esken 14FPS? Oder Standbild in 4K? ;)

Green Yoshi 20 Gold-Gamer - 24837 - 21. August 2014 - 13:56 #

Hey, nichts gegen das beste Spiel aller Zeiten! Auf dem 3DS läuft es übrigens mit stabilen 30 fps.

Sp00kyFox 18 Doppel-Voter - 11532 - 21. August 2014 - 13:57 #

übern emulator sogar mit 60fps.

Sancta 15 Kenner - 3168 - 21. August 2014 - 14:00 #

Ohne zynisch sein zu wollen, ich meine das ganz ernst: Das kommt davon, wenn man als Programmierer aus einer Welt kommt, in der man immer sagen kann "kauft euch einen schnelleren Rechner, dann läuft es super".
Als ich Ende der 90er für den PC ein 2D Spiel entwickelt habe, habe ich und meine Kollegen sehr viel Zeit mit extremen Optimierungen verbracht, damit das Spiel flüssig (60FPS) auf den gängigsten Systemen lief. Selbst die Downloadgröße wurde durch diverse Tricks massiv auf klein getrimmt. Damals wollte die Kunden nicht mehr als 10MB downloaden für eine Demo ;-)
Was nützt es mir, wenn der Kunde unzufrieden ist und ich sagen kann "Ja, hättet ihr nur die richtige Grafikkarte". Solche Optimierungen scheint es heute wohl fast nur noch bei Exklusivtiteln zu geben.

Azzi (unregistriert) 21. August 2014 - 14:48 #

Abwarten. Witcher 2 hat auch alles aus den alten Gammelkonsolen rausgeholt, ich vermute das auch Witcher 3 gut optimiert für die neuen Konsolen erscheint.

Aus ner Mittelklasse-Hardware kann man halt unmöglich graphische Wunder dinge erwarten. Trotzdem denke ich wird die Konsolenversion auch sehr gut aussehen und dort neue Maßstäbe setzen.

Fips 10 Kommunikator - 443 - 21. August 2014 - 16:16 #

Also ich denke mir, dass die Entwickler bei CDProjekt Red schon ordentlich optimieren. Dass dabei dann keine 1080p/60 fps auf den Konsolen rausspringen wundert mich allerdings überhaupt nicht, wenn man die Komplexität des Spiels betrachtet: extrem detaillierte offene (angeblich komplett begehbare) Welt mit enormer Weitsicht und zig gescripteten NPCs.

Eine solche Content-Monster perfekt zu optimieren ist deutlich schwerer als ein eher kleines 2D-Game, an dem viel weniger Leute beteiligt sind, rund zu bekommen. Obendrein ist der PC die lead platform.

Möglich, dass ein Studio wie naughty dog etc. sowas hinbekommt, aber die müssen sich auch nur um eine Version kümmern und kennen die Plattform in und auswendig.

vicbrother (unregistriert) 21. August 2014 - 18:50 #

Die NPCs werden aber von der CPU gerechnet, die Grafik auf der GPU. Dazu kommt, dass sie ihre eigene Engine nutzen, d.h. sie haben viel Know How und sie können ihre Engine allein auf ihr Spiel ausrichten. Da ist schon einiges möglich.

Fips 10 Kommunikator - 443 - 22. August 2014 - 9:25 #

Natürlich teilen sich CPU und GPU unterschiedliche Aufgaben. Nur muss eben pro frameupdate im Regelfall der komplette Zyklus durchlaufen werden, d.h. auch die NPC updates.

Je umfangreicher die Berechnungen (CPU+GPU) pro frame desto niedriger die framrate.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 15:59 #

Ohne zynisch sein zu wollen, ich meine das ganz ernst: Kauft euch einfach einen PC, wenn ihr ordentliche Auflösungen und Frameraten wollt. Oder lebt mit dem, was euch die Konsolen bieten.

Sollte doch eigentlich bekannt sein, dass der PC einfach stärker ist. Diskussionen darüber sind überflüssig. Man kann die Spiele einfach nicht "endlos" optimieren. Die Dinger sind einfach langsam. Fertig, aus, Amen.

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 16:05 #

Nene das kannst du so nicht sagen die sind optimiert und damit drölfmal schneller und überhaupt im Laufe der Jahre werden die noch optimierter genutzt so das sich das drölfmal potenziert!
Weil die verbaute Hardware so ein Mysterium ist das man erst ihn Jahrzehntelanger Erfahrungschleife die schon optimierte Programmierung erlernt um dann optimierter als optimiert voll die poplige PC Hardware die bis dahin raus ist (weil die aktuelle an sich ja eh schon schlechter ist als die an sich schon optimierte Konsole ^^) wegoptimiert.

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 16:59 #

Hihi :)

Sven Gellersen Community-Moderator - P - 24221 - 23. August 2014 - 12:01 #

Da hast Du glaube ich eine sehr optimierte Aussage getroffen :D

ChuckBROOZeG 19 Megatalent - 19336 - 23. August 2014 - 12:35 #

Ja mein deutsch ist nicht so gut! Da wäre ein wenig polish und Optimierung noch nötig :-D.

Pro4you 18 Doppel-Voter - 12684 - 21. August 2014 - 14:33 #

Die müssen 1080p gewährleisten, und selbst wenn dafür die Schatten nicht ganz so schön aussehen. Sonst wird sich das auch in den Verkaufstahlen ausdrücken

Solar (unregistriert) 21. August 2014 - 14:49 #

Ich frag mich warum es keine Grafikoptionen in Konsolenspielen gibt. 720p/60fps oder 1080p/30fps wären das Minimum.

Toxe 21 Motivator - P - 29971 - 21. August 2014 - 15:12 #

Weil es so einfach eben nicht ist.

Solar (unregistriert) 22. August 2014 - 1:45 #

Deswegen haben ein paar Spiele ja genau diese Optionen /facepalm.

Thomas Barth 21 Motivator - 27682 - 22. August 2014 - 6:18 #

Welche denn? So eine Option habe ich bisher noch nie gesehen.

Toxe 21 Motivator - P - 29971 - 22. August 2014 - 12:13 #

Nenne fünf. Abgesehen von PS4-TLoU fällt mir keines ein, und dort geht es noch nicht mal um die Auflösung sondern nur um die Schatten.

BTW habe ich gesagt, daß es schwierig und nicht daß es unmöglich sei. Ein oder zwei Ausnahmen widersprechen meiner Aussage nicht.

Tr1nity 28 Endgamer - P - 101027 - 22. August 2014 - 12:16 #

Bemüht euch nicht, der trollt jetzt anonym gegen Konsolen rum. Ignorieren und lieber melden.

Toxe 21 Motivator - P - 29971 - 22. August 2014 - 12:27 #

Ach ist das einer der hier registrierten Benutzer? Das wird ja immer toller. :-)

Tr1nity 28 Endgamer - P - 101027 - 22. August 2014 - 12:44 #

Er war registriert.

bigboulder 13 Koop-Gamer - 1348 - 21. August 2014 - 15:28 #

Weil man so schnell sehen könnte das die Teile nicht genug Saft unter Haube haben XD

Schlechte Werbung wenn bestimmte Settings nicht flüssig laufen würden.

furzklemmer 15 Kenner - 3173 - 21. August 2014 - 16:03 #

Weil dann aus Konsolen PCs werden. Das Schöne bei Konsolen ist, dass ich mir nicht Gedanken machen muss, was denn jetzt die Optimaleinstellungen für mein System und das Spiel sind. Der Entwickler nimmt mir das ab. Und dem vetraue ich, dass er die Einstellung wählt, die am besten für sein Spiel ist und das Maximum aus dem System herausholt.

Beim PC weiß ich nie, ob das Spiel mit meinen Einstellungen auf meinem System wirklich am besten aussieht und läuft. Da müsste ich 1000 Kombinationen in unterschiedlichen Spielsituationen testen. Diese Arbeit nimmt mir der Entwickler bei Konsolen ab. Deswegen mag ich Konsolen. Und wenn ein Entwickler zum Entschluss kommt, sein Spiel fühle sich auf 720p mit 60fps besser an als auf 1080p mit 30fps, dann finde ich das gut und möchte da nicht dran rumfummeln. Wenn es mit solchen Einstellungen auf Konsole los geht, ist das der Anfang vom Ende der Plattform.

Fips 10 Kommunikator - 443 - 21. August 2014 - 16:26 #

das kann ich so weitgehend unterschreiben. Ein gewissenhaftes Entwicklungsstudio mit ausreichend Zeit für Optimierungen und Tuning wählt in der Regel die Einstellungen, welche den jeweils Verantwortlichen am geeignetsten erscheinen. Die Entwickler kennen i.d.R (wenn die QA ihre Arbeit macht/machen kann) alle Problemzonen und Fallstricke und können so entscheiden, wo man Abstriche macht und wo man noch zugeben kann.

D.h. allerdings nicht, dass es grundsätzlich keine Einstellmöglichkeiten bei Konsolentiteln geben sollte. Im Einzelfall kann sowas schon sinnvoll sein.

Sp00kyFox 18 Doppel-Voter - 11532 - 21. August 2014 - 17:18 #

vor allem in hinblick auf motion blur und depth of field, was viele überhaupt nicht leiden können. leider wird einem das trotzdem in aller regel zwangsweise aufgedrängt bei konsolenspielen.

bigboulder 13 Koop-Gamer - 1348 - 22. August 2014 - 0:53 #

Vielleicht um die Sichtweite einzudämmen und so Leistung zu sparen? ;-)

Eine Variante der so viel gelobten "optimierung" für Konsolenversionen.

Sp00kyFox 18 Doppel-Voter - 11532 - 22. August 2014 - 4:30 #

wenn dann eher um es zu verschleiern. beide effekte kosten schließlich performance und sparen nicht welche ein.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 16:03 #

Oder Field of View. Motion Sickness anyone!?

Spiritogre 18 Doppel-Voter - 11995 - 23. August 2014 - 0:15 #

Das ist das erste, was ich in Spielen deaktiviere. Kann ich überhaupt nicht leiden.

vicbrother (unregistriert) 21. August 2014 - 18:53 #

Eine Konsole ist nicht mehr als ein normierter PC - einschalten, Spiel auswählen, starten. Da soll man nicht mehr viel Einstellen müssen und das übernimmt der Entwickler anhand der einheitlichen Hardware.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 16:02 #

> Und wenn ein Entwickler zum Entschluss kommt, sein Spiel fühle sich
> auf 720p mit 60fps besser an als auf 1080p mit 30fps,...

Soll auch Leute geben, die sich nicht von irgendwelchen Laberköpfen bevormunden lassen. Genug Negativbeispiele gab es dazu ja in den letzten Wochen.

Wenn Du mit der Auswahl zwischen zwei Optionen zudem überfordert bist, dann lass sie doch einfach unangetastet. Fertig.

Pro4you 18 Doppel-Voter - 12684 - 21. August 2014 - 18:55 #

Weil sie anscheinend schon Probleme haben 30 Bilder hinzubekommen.

Jimmy 12 Trollwächter - 1164 - 21. August 2014 - 15:57 #

Irgendwie tun mir die Entwickler schon etwas leid, da werden Welten entworfen, Storys geschrieben, Charakter entworfen usw. und am Ende wird nur über die Auflösung und Framerate gesprochen ;-)

Ich bin mir sicher das Witcher 3 ein tolles Erlebnis wird egal ob PC oder Konsole.

Goldfinger72 15 Kenner - 3136 - 22. August 2014 - 8:32 #

Zwei Spieler unterhalten sich:
"Wie fandest du das Ende von The Witcher 3?"
"Voll krass, da hatte ich 121 fps!!!"

Slaytanic 23 Langzeituser - P - 39284 - 22. August 2014 - 10:14 #

So einen alten Witz aus den 90er Jahren muss man nun wirklich nicht wieder rauskramen. ;)

Goldfinger72 15 Kenner - 3136 - 22. August 2014 - 17:35 #

Gab es den schon? Mist... :-)

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 16:05 #

Wenn es nur in Standbildern über den Bildschirm zuckelt, hat man aber nicht wirklich viel davon...

Goldfinger72 15 Kenner - 3136 - 22. August 2014 - 17:38 #

Technik-Diskussionen sind ja grundsätzlich auch ok! Allerdings geht es hier in den entsprechenden Threads selten um Fakten oder interessante Einblicke, sondern in 98% einfach darum, andere Hardware zu dissen. Und das finde ich schlichtweg albern.

Desotho 16 Übertalent - 4129 - 21. August 2014 - 16:44 #

1080p ist ohnehin nicht die ideale Auflösung habe ich gehört.

Ukewa 15 Kenner - 3689 - 21. August 2014 - 16:45 #

Vor allem nicht auf einem Full-HD-Bildschirm!

Khronoz 14 Komm-Experte - 1884 - 21. August 2014 - 16:47 #

Mhm ... kommt das Buch dann in 3 D ?

Sh4p3r 15 Kenner - P - 3113 - 21. August 2014 - 18:29 #

Weder auf der XBone noch auf der PS4 sind die 1080p/30fps sicher!? Das werde ich mal gespannt weiterverfolgen ^^

Freylis 20 Gold-Gamer - 21780 - 21. August 2014 - 19:29 #

Dank dem neuen Xbox-One-Standard darf man also auch auf der PS4 keine besseren Resultate erwarten? Traumhaft... - Kleiner Tipp: Wieso programmiert man nicht erst fuer PC, dann fuer PS4 und dann fuer X1? Dementsprechend haette man auf den ersten beiden Systemen die Performance, die sie beherrschen und auch verdienen. Danke!

Disclaimer: Nein, ich will nicht gegen MS trollen, sondern bin nur realistisch/pragmatisch. Bei PS3 und Xbox360 haette ich das Umgekehrte gesagt, da gewoehnlich die 360 die besseren Resultate brachte. :)

Maximilian John Community-Event-Team - 9978 - 21. August 2014 - 23:08 #

Das ist Quatsch. Das wäre so, als würde ich sagen: "Dank den Konsolen darf ich auf dem PC keine besseren Resultate erwarten." Die PS4 ist technisch nun auch nicht Welten besser als eine Xbox One, ein Highend-PC (und das peilt CD-Project ja an) schlägt allerdings beide Konsolen um Längen. Die "1080p und 60 Frames"-Phase wird nicht lange andauern, da sonst grafisch doch größere Einbußen (ja, auch auf der PS4) hingenommen werden müssen. Ich finde es aber auch krass, wie sehr das jetzt schon gebasht wird. Ich meine, wenn es hinterher mit 900p und 30 FPS läuft ist doch alles super. Ich wette es wird dafür auch auf er Konsole grafische Maßstäbe setzen.

Freylis 20 Gold-Gamer - 21780 - 22. August 2014 - 2:04 #

Naja komm, Quatsch ist das ja nun nicht. Es ist ja eine Tatsache, dass Microsoft schon ganz zu Anfang einige Hebel in Bewegung gesetzt hat, um Exklusiv-Deals und Partnerschaften zu etablieren, deren Ziel es war, die Tatsache unter den Tisch zu kehren, dass die X1 schwaecher auf der Brust ist als ihre direkte Konkurrentin. Im Uebrigen haben wir glaube ich aneinander vorbeigeredet, wie mir dein erster Satz oben zeigt. Denn mit dem Darauffolgenden wuerde ich natuerlich im Groben uebereinstimmen. - Ich bin jetzt auch nicht die Grafik/Aufloesungshure, sonst wuerde ich wohl kaum Risen 2 auf PS3 ansehnlich finden, aber dass die Next Gen nicht mehr kann ist schon traurig und irgendwie auch peinlich im Vergleich zum PC, selbst wenn man realistisch ist und weiss, dass Konsolen PCs immer hinterherhinken werden.

Sp00kyFox 18 Doppel-Voter - 11532 - 22. August 2014 - 4:29 #

mittlerweile. war ja früher auch mal anders, wo eine neue konsolengen erst mal grafisch neue maßstäbe setzte und PC'ler neidisch hingeguckt haben. das hat sich ja erst mit den letzten gens so entwickelt, dass die konsolen nun schon zum release im vergleich veraltet sind.

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 14:24 #

Ganz wenige Generationen vielleicht sogar nur eine (alles vor PC quasi bis Ende Amiga ^^ kann man ja nicht mitzählen) für ne Pauschalaussage herzunehmen ist schon geil :-D.

Sp00kyFox 18 Doppel-Voter - 11532 - 22. August 2014 - 14:37 #

ich habe mich mit meiner aussage auf die letzten beiden konsolengens bezogen. und da war es nun mal so, dass diese technisch schon zur veröffentlichung im vergleich technisch veraltet waren. von einer pauschalaussage kann hier nicht die rede sein ;)

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 14:58 #

Vielleicht hab ich das ein bisschen falsch aufgefasst ^^.

Ich sehe nämlich graphische Masstäbe nur bei der PS1 Generation und da auch nur kurze Zeit. Weil Sony die schon in Entwicklung befundene 3D Chips der Konkurenz hergenommen hat um eine schlechtere Version schneller herauszubringen.

PS2 und XBox 1 waren zu ihrem erscheinen auch schon nicht mehr ein technischer Vorreiter ^^. Ok ausser man nimmt solche trailer wie Killzone für bare Münze ^^. Aber die Qualität haben sie ja dann doch erst auf der PS3 geliefert :-D.

Wie es davor aussah weiss ich ehrlich gesagt gar nicht mehr. Aber da gabs auch so ein PC / Konsolending auch nicht. Aber ich dachte seit dem Ende des Amigas (also mit dem Aufkommen von Soundkarten in PC's ^^) wurden die Masstäbe eher auf dem PC gesetzt.

Sp00kyFox 18 Doppel-Voter - 11532 - 22. August 2014 - 16:24 #

würde schon sagen, dass noch bis zur PS2 (und davor ohnehin) zumindest zu beginn der jeweiligen konsolengen es immer titel gab die grafisch vor dem lagen, was bis dahin auf dem PC spielbar war.

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 16:32 #

PS1 ist doch n schönes Beispiel. Kam 95 mit nem rudimentären 3dChip.
Das PS1 Vorzeigespiel Tomb Raider sah auf PC schon ohne 3D karte nicht schlechter aus und mit der Voodoo dann sogar besser.

Und ehrlich gesagt müsste ich jetzt Archive wälzen und Vergleichsvideos anschauen aber mal ehrlich ich kann mich an kein Spiel erinnern das mir als PC'ler die Kinnlade runterklappen lies aus der Ära PS2. Was auch ein Grund war warum ich nicht eine solche kaufte.

Sp00kyFox 18 Doppel-Voter - 11532 - 22. August 2014 - 18:51 #

nun war tomb raider auch schon release nicht die spitze des grafikolymps. ich denke da zB an titel wie wave race und sowas gabs eben zu dem zeitpunkt aufn pc nicht.

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 18:59 #

Solche Spiele gabs zwar nicht deswegen haben sie doch trotzdem keine graphischen Masstäbe gesetzt.
Ok im Falle von Wave Race war das bei den Plattformen auch denkbar schwer ^^.

Sp00kyFox 18 Doppel-Voter - 11532 - 22. August 2014 - 19:04 #

kapier deinen einwand jetzt nicht wirklich. jedenfalls meine ich, dass es bei ganzen konsolengens bis etwa PS2 bzw PS3 stets so war, dass da konsolen erst mal grafisch vorgelegt haben um dann erst innerhalb der gen vom PC überholt worden zu sein. was jetzt eben seit spätestens den letzten beiden gens definitiv nicht mehr der fall ist.
wobei die konsolen damals noch den vorteil hatten, keine hochauflösenden geräte ansprechen zu müssen. insofern war da schon ein performance-vorteil gegeben. während pc'ler ja schon von ihreren röhren-monitoren auflösungen kannten, die man heute als HD bezeichnet.

Spiritogre 18 Doppel-Voter - 11995 - 23. August 2014 - 0:35 #

Also ich bin seit 1984 Computerspieler und seit 1992 Konsolenspieler. Das Master System und das NES haben damalige Heimcomputer alt aussehen lassen, das Mega Drive und das SNES haben damalige (damals schon alte) Heimcomputer und (neue) PCs alt aussehen lassen.
(Wobei der Amiga 1200 das Mega Drive durchaus überholt hat).

Aber dann hat ab ca. 1994 der PC ordentlich losgelegt, Titel wie Wing Commander oder Rebel Assault gab es auf Konsole (zunächst) nicht. Die PS1 hat dann zwar den 3D trennt endgültig losgetreten, konnte aber nichts, was nicht auch der PC mit 2D Karte und höherer Auflösung durch seine schiere CPU Leistung Zustande brachte. Als dann die 3D Karten kamen waren die Konsolen leistungsmäßig eigentlich immer hinterher. Vor allem habe ich auf dem PC seit 1995 schon in 1280x1024 gespielt während auf dem Röhrenfernseher bei den Konsolen ja nie mehr als 640x480 ging.

Goldfinger72 15 Kenner - 3136 - 22. August 2014 - 8:34 #

"Ich bin jetzt auch nicht die Grafik/Aufloesungshure,"

Der war gut. Ich mag Sarkasmus!

Bastro 15 Kenner - 3537 - 21. August 2014 - 19:35 #

Ganz verwegene Verschwörungstheorie: Vielleicht wird gerade von CDPR in Sachen Leistungsversprechen vorgebaut, weil es auch Teil des Vertrages mit Microsoft ist, der schon das Kartenspiel in die CE bringt, dass die PS4-Version nicht mehr können darf als die für Xbox One. ;-)

. 21 Motivator - 27826 - 21. August 2014 - 20:18 #

Statt die 109843984384 News über Auflösung und Framerate würde ich gerne wieder einmal eine Preview zu Witcher 3 lesen. Die letzte hier auf GamersGlobal stammt aus dem Juli 2013.
Aber unter einer guten Preview können sich die Trolle vermutlich nicht so gut austoben.

Auflösung schlägt Inhalte. Traurige Sache das.

Bastro 15 Kenner - 3537 - 21. August 2014 - 20:29 #

Ich fand das 35-min-Video von gestern besser als jede schriftliche Preview.

J.C. (unregistriert) 21. August 2014 - 20:46 #

Solange die Preview auf keiner spielbaren Version basiert hast du da sicher recht.

Freylis 20 Gold-Gamer - 21780 - 21. August 2014 - 20:40 #

Will ja net klugscheissern, aber ich glaube, du hast dich um eine News verzaehlt. ;)

guapo 18 Doppel-Voter - 10625 - 21. August 2014 - 21:04 #

Sei still Kind und iss noch ein wenig Plastik :)=

furzklemmer 15 Kenner - 3173 - 21. August 2014 - 22:10 #

Nein! Nein! Nein! Das kann max. die 90094. News zu 1080p sein!

Khronoz 14 Komm-Experte - 1884 - 21. August 2014 - 23:23 #

Auflösung ist auch Inhalt.

Right Said Fred (unregistriert) 22. August 2014 - 0:16 #

Eben. Wen interessiert es, ob das Spiel auf dem PC ein paar Pixel mehr oder weniger darstellt? Mein Bedarf an PC-Spielen ist nach Treiberproblemen, Bugs und andere technische Probleme mehr als gedeckt. Mir fehlen da einfach die Nerven für, Windows ist Qual genug. Immerhin verzichtet Witcher 3 auf Späßchen wie uPlay und Origin.

Eine Preview kostet mehr Zeit als eine News und kann nicht von jedem geschrieben werden.

bigboulder 13 Koop-Gamer - 1348 - 22. August 2014 - 0:59 #

"Treiberproblemen"

Amd Radeon Kunde?

"Bugs"

Gibs zuhauf auch in Konsolentiteln und das teils sogar exklusiv.

"andere technische Probleme".."Mir fehlen da einfach die Nerven für, Windows ist Qual genug. "

Ein Pc bedarf nunmal Wartung und Pflege.. 2-3 Mal die Woche Virencheck min. 1 gescheite Firewall und einmal im Monat Defrag.
Alle wichtigen Win Updates installieren lassen und alle paar Monate mal den neuesten Nvidia WHQL Treiber draufschmeissen.
Dazu nicht auf dubiosen Websites surfen und den Browser entsprechend absichern.

Ein Pc ist nunmal kein Spielzeug.

Bei einem tollen Auto beschwert sich ja auch keiner das es aufwendig und teuer werden kann wenn die Inspektion ansteht.

Slaytanic 23 Langzeituser - P - 39284 - 22. August 2014 - 1:20 #

Nvidea-Fanboy?

bigboulder 13 Koop-Gamer - 1348 - 22. August 2014 - 12:39 #

Eher AMD- geschädigt.

und "Nvid[e]ia" ist keine Creme ;-)

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 1:22 #

"Amd Radeon Kunde?"
Da ist aber auch jemand in der Vergangenheit hängen geblieben, oder? :o

"2-3 Mal die Woche Virencheck min. 1 gescheite Firewall und einmal im Monat Defrag.
Alle wichtigen Win Updates installieren lassen"
Offenbar ja, weil diese Dinge heutzutage alle automatisiert ablaufen können, für die Leute, die sich damit nicht beschäftigen mögen :)

bigboulder 13 Koop-Gamer - 1348 - 22. August 2014 - 12:40 #

Das Amd "bescheidene" und mit vielen Problemen behaftete Treiber für ihre GPUs veröffentlicht ist wohl kaum ein Ding der Vergangenheit.
Geradezu jeder neue Titel kämpft mit Amd Treiberproblemen.

Wäre aber unklug diese "immer" automatisiert ablaufen zu lassen.
Denn Wartung macht eigentlich nur Sinn wenn der Rechner im Leerlauf ist. Da die Leute aber ihren PC oft nur kurz anschalten um etwas zu arbeiten/spielen und dann wieder ausschalten können diese Automatismen gar nicht erst greifen.

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 13:40 #

Ich hab seit Ewigkeiten keine Probleme mehr mit Treibern gehabt und habe auch nur noch selten davon gelesen. Daher stammt diese Assoziation soweit ich weiß tatsächlich aus der Vergangenheit.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 16:10 #

> Das Amd "bescheidene" und mit vielen Problemen behaftete Treiber für
> ihre GPUs veröffentlicht ist wohl kaum ein Ding der Vergangenheit.
> Geradezu jeder neue Titel kämpft mit Amd Treiberproblemen.

Nicht im Geringsten. Aber die Diskussion ist müssig... Lassen wir das.

Spiritogre 18 Doppel-Voter - 11995 - 23. August 2014 - 0:44 #

Quatsch!

Ich habe bei meinem Desktop seit ewigen Jahren AMD Karten (aber auch NVidia) und nie diese Probleme gehabt. Es gab vor 15 Jahren oder so gelegentlich mal Spiele, die nicht mit AMD oder(!) NVidia Karten vernünftig wollten, weil sie nur für die eine oder andere "optimiert" waren, genau das trifft dann heutzutage noch mal Titel wie eben GTA4 aber das sind Ausnahmen und Schuld ist der Spielehersteller.

Und ich habe auch nie Treiberprobleme gehabt, obwohl ich durchaus ungewöhnliche Settings fahre, schon seit ewigen Jahren zwei Monitore oder Darstellung auch auf TV.

Viel Schlimmer sind die Intel Grafiktreiber, da habe ich ständig Ärger mit.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 16:09 #

> Amd Radeon Kunde?

Wahrscheinlich eher nieWieder :>

> Ein Pc ist nunmal kein Spielzeug.

Stimmt. Mehr braucht man eigentlich nicht sagen.

Solar (unregistriert) 22. August 2014 - 1:47 #

Die Probleme deutet darauf hin, dass das Problem VOR dem Bildschirm sitzt!

Thomas Barth 21 Motivator - 27682 - 22. August 2014 - 6:33 #

Nein, das Problem liegt in der Architektur von Windows. Warum bietet Microsoft denn keinen Modus für Leute an, die sich weniger mit PCs auskennen? Also mit vorinstallierter, automatisierter Treiber-Erkennung, Konfigurationshilfe, voreingestellten Profilen für Büro, Zuhause und Gaming, usw.

Wenn du dich mit allem so gut auskennst, warum malst du nicht einfach eine neue Mona Lisa? Oder sitzt bei dir das Problem etwa vor der Leinwand.

Nicht jeder muss sich mit allem auskennen, denn jeder hat eine andere Spezialisierung in der er sich gut auskennt. Für Leute die sich nicht mit Windows auskennen (wollen) oder schlichtweg nicht die Zeit dazu haben sich damit zu beschäftigen, gibt es Konsolen und für Leute die keine Mona Lisa zeichnen können, gibt es Malen nach Zahlen.

Azzi (unregistriert) 22. August 2014 - 9:20 #

Nur dumm das Windows mittlerweile seit 2 Generationen (7+8) wahrscheinlich auch schon seit XP alle Treiber bei Bedarf selbstständig installiert, ganz automatisch mit den Updates zusammen. Außerdem brauch man heute nur noch Grafikkartentreiber und selbst das macht Windows automatisch. Also deine vermeintlichen Argumente stimmen hinten und vorne net...

Thomas Barth 21 Motivator - 27682 - 22. August 2014 - 10:46 #

Und wie toll das funktioniert!

http://www.winboard.org/software-allgemein/152371-nvidia-treiber-334-89-macht-erhebliche-probleme-bluescreen.html

http://www.heise.de/newsticker/meldung/Berichte-ueber-Probleme-mit-Nvidia-Grafikkartentreiber-320-18-haeufen-sich-1887422.html

http://www.computerbase.de/forum/showthread.php?t=1213177

http://www.gamersglobal.de/news/19330

http://www.tomshardware.de/techsupport/id-128512/ratlos-fehlersuche-ssd-radeon-290.html

http://www.tomshardware.de/techsupport/id-128529/staendiges-einfrieren-pcs-standbilder-verzoegerungen.html

Woher soll ein Laie jetzt bitte wissen, woher seine Probleme rühren? Windows sagt einem nicht Bescheid, wenn es gravierende Treiberprobleme gibt, das arbeitet einfach dumm weiter und stürzt dann ab. Nur weil man selber keine Probleme hat, heißt das nicht dass sie nicht existieren.

Wenn Windows so toll funktionieren würde wie du sagst, dann bräuchten Firmen keinen Administratoren mehr und alle PC-Spezialisten wären auf einen Schlag arbeitslos.

Azzi (unregistriert) 22. August 2014 - 11:01 #

Natürlich funktioniert in so komplexen Bereichen der IT selten was perfekt. Das ist aber nicht auf Windows beschränkt und auch nicht auf PCs. Aber im großen und Ganzen ist die Einrichtung und Nutzung von heutigen PCs so einfach wie noch nie und Windows seit Win7 stabil wie ein stein. Wahrscheinlich ist meine Xbox360 öfter abgestürzt als mein PC in den letzten 10 Jahren.

Toxe 21 Motivator - P - 29971 - 22. August 2014 - 12:26 #

"Wahrscheinlich ist meine Xbox360 öfter abgestürzt als mein PC in den letzten 10 Jahren."

Einspruch Euer Ehren: Unpassender Vergleich.

Wenn ein Konsolenspiel crasht, wird gerne mal das komplette System mitgenommen und man muß das Gerät neustarten. Wenn unter Windows ein Programm crasht, juckt das ein modernes Windows in der Regel einfach weniger als ein Konsolen OS und das eigentliche System läuft noch weiter, man muß also die Maschine nicht neu starten. Das liegt halt einfach so in der Natur der Konsolenbetriebssysteme, weil diese für komplett andere Dinge ausgelegt sind.

Wenn Du hier also etwas vergleichst, dann nicht welche Geräte Du öfter neu starten mußt, sondern wo Dir die Spiele häufiger crashen, egal ob sie dabei das Betriebssystem mit in den Tod reißen oder nicht.

Und was die Anzahl Crashes angeht kommen Windows Spiele DEUTLICH schlechter weg als Konsolenspiele. Aber ich glaube, das zweifelt wohl auch niemand ernsthaft an, oder?

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 13:28 #

Es ist da aber jetzt auch nicht Azzis Schuld, dass die Konsolenspiele ihre Geräte gleich mit in den Abgrund reißen? Ich finde den Vergleich schon berechtigt. Die Tatsache, dass es so ist, wie du sagst, macht es eigentlich nur schlimmer, finde ich.

Toxe 21 Motivator - P - 29971 - 22. August 2014 - 13:35 #

Ich könnte auch damit leben, wenn die Systeme stabiler wären (wobei die PS4 das bisher definitiv ist, wie mir BF4 schon mehrmals meinte, zeigen zu müssen) aber so ist es bei den alten Konsolen halt nicht.

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 13:42 #

Aber das ist doch keine Entschuldigung. Bei Windows 98 würde auch niemand auf die Idee kommen zu sagen Bluescreens seien da halt normal, das gehöre einfach dazu, das dürfe man nicht mitzählen, da W98 da einfach anders sei.

Toxe 21 Motivator - P - 29971 - 22. August 2014 - 14:06 #

Die Frage ist doch: Wo crashen die Programme häufiger, auf dem PC oder auf den Konsolen? Antwort: Auf dem PC. Alles andere ist doch jetzt nur eine eine Nebendiskussion.

Larnak 21 Motivator - P - 26055 - 22. August 2014 - 14:16 #

Azzi ging es nun mal darum, wie oft die Geräte crashen. Wenn du dem entgegnen möchtest, dass Spiele auf dem PC aber häufiger crashen, tu dir keinen Zwang an :D

Sp00kyFox 18 Doppel-Voter - 11532 - 22. August 2014 - 14:39 #

auch die antwort würde ich jetzt nicht widerspruchslos hinnehmen. auch allgemeine programm-crashes sind sehr selten geworden auf modernen systemen.

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 14:59 #

Ähm einfach mal nein.
Es sei denn du zählst die ganzen Betas mit rein was an sich ja schon an Pipi Langstrumpf erinnern würde.

Toxe 21 Motivator - P - 29971 - 22. August 2014 - 15:44 #

Nein, zähle ich natürlich nicht, ich zähle Release Versionen wie zB. BF4 oder Watch Dogs, die zum Release nicht gerade durch Stabilität geglänzt haben.

bigboulder 13 Koop-Gamer - 1348 - 22. August 2014 - 12:44 #

Und auf der Xbone funktioniert nach nem Biosupdate das Laufwerk nicht mehr. Das sind auch manchmal Fehlerquellen die vom Hersteller herrühren.

Beim PC können es halt verschiedene Bauteile oder Treiber von verschiedenen Herstellern sein.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 16:14 #

> Woher soll ein Laie jetzt bitte wissen, woher seine Probleme rühren?
> Windows sagt einem nicht Bescheid, wenn es gravierende
> Treiberprobleme gibt, das arbeitet einfach dumm weiter und stürzt
> dann ab. Nur weil man selber keine Probleme hat, heißt das nicht
> dass sie nicht existieren.

Und die Xbox 360 hat auch klar und deutlich gesagt: "Ich bin kaputt!" statt dem Red Ring of Death...

Ein bisschen weniger Polemik und mehr Ernsthaftigkeit wäre nicht schlecht. Probleme gibt es auf allen Systemen und mit allen Produkten. Wenn Dein Toaster im Arsch ist, schickst Du ihn auch zum Hersteller ein. Dein Auto bringst Du zur Reparatur. Und den PC zum Fachmann oder zum Hersteller, wenn Du ihn selbst nicht reparieren kannst.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 16:11 #

> Nein, das Problem liegt in der Architektur von Windows. Warum bietet
> Microsoft denn keinen Modus für Leute an, die sich weniger mit PCs
> auskennen? Also mit vorinstallierter, automatisierter Treiber-
> Erkennung, Konfigurationshilfe, voreingestellten Profilen für Büro,
> Zuhause und Gaming, usw.

Öhhh... ist alles vorhanden!?

Sven Gellersen Community-Moderator - P - 24221 - 23. August 2014 - 1:17 #

Nö. Voreingestellte Profile gibt es nicht. Und wenn doch, dann so gut versteckt, dass der durchschnittliche, nicht-technikaffine PC-User diese nicht findet.

Larnak 21 Motivator - P - 26055 - 23. August 2014 - 1:22 #

Fürs Netzwerk gibt's die. Und für den Rest wüsste ich ehrlich gesagt nicht, was so ein Profil tun sollte.

Sven Gellersen Community-Moderator - P - 24221 - 23. August 2014 - 1:24 #

Und wo finde ich die?

Larnak 21 Motivator - P - 26055 - 23. August 2014 - 1:28 #

Die werden dir quasi ins Gesicht geworfen, sobald du einem neuen Netzwerk beitrittst. Dann wählst du eins aus und wirst in Ruhe gelassen.
Ansonsten "Netzwerk- und Freigabecenter"

Sven Gellersen Community-Moderator - P - 24221 - 23. August 2014 - 1:33 #

Finde ich dort nirgends, sorry.

Spiritogre 18 Doppel-Voter - 11995 - 23. August 2014 - 1:47 #

Was für Profile meint ihr?

Meine Soundkarte hat z.b. drei Profile mit Voreinstellungen zwischen denen man wechseln kann: Game, Audio-Erstellung und Unterhaltungsmodus. Mein Monitor hat am OSD etliche Presets u.a. Internet, Text, Film, Spiel ...

Was für Profile sollte ein Windows direkt haben? Ich dachte jeder versierte Nutzer richtet sich seinen Desktop nach der Installation so ein, wie er es möchte und alle nicht so versierten Nutzer leben halt mit den Standard-Voreinstellungen. Das erste was ich nach einer Installation z.B. mache ist "einfachen Mausklick" aktivieren und versteckte Ordner anzeigen lassen, dann die Abstände der Icons auf dem Desktop verringern.

Edit: Mit Netzwerkprofilen meinte er vielleicht Heimnetzwerk, Öffentliches Netzwerk, Firmennetzwerk!?

Sven Gellersen Community-Moderator - P - 24221 - 23. August 2014 - 1:48 #

Es ging eingangs (ab Thomas Barths Beitrag ein ganzes Stück weiter oben) darum, warum Windows selbst keine Profile anbietet, die man bei Bedarf wechseln kann.

Spiritogre 18 Doppel-Voter - 11995 - 23. August 2014 - 14:15 #

Ja, deswegen meine Frage, wo der Sinn darin sein soll? Windows kommt doch mit bestimmten Einstellungen vorkonfiguriert. Wie soll ein Profil für Gaming, Office oder Medien denn aussehen? Funktioniert doch alles von den Voreinstellungen aus.
Für z.B. den Betrieb als Mediencenter am Fernseher gibt es ja den Mendiencenter, was aber eben eine eigenständige Software ist.

vicbrother (unregistriert) 23. August 2014 - 17:10 #

Erinnere dich an OS/2 oder Linux-Systeme, in denen du Desktops speichern kannst. Das halte ich zB für sehr sinnvoll. Ebenso das Sperren von Webseiten und Programmen, die nicht ablenken oder plötzlich hervorploppen.

Spiritogre 18 Doppel-Voter - 11995 - 23. August 2014 - 22:02 #

Ich hätte ja schon gerne mehrere Desktops nativ unter Windows. Aber der Rest den du nennst ist doch Einstellungssache der einzelnen Programme und hat mit dem System nichts zu tun.

vicbrother (unregistriert) 23. August 2014 - 22:37 #

Der Rest war ein Wunsch von mir an das Betriebsystem: Starte nur das was ich wirklich brauchte. Unter Unix kein Problem, nennen wir es Runlevel bzw. Useraccount ;)

Spiritogre 18 Doppel-Voter - 11995 - 24. August 2014 - 16:29 #

Kannst du unter Windows aber auch. Bzw. startet und beendet Windows nicht benötigte Dienste ohnehin automatisch.

ChuckBROOZeG 19 Megatalent - 19336 - 24. August 2014 - 17:56 #

Ja vor allem mit Linux/Unix kommen ^^
Das vordefinierte Gamer oder Multimedia Runlevel will ich mal sehen ^^.

Worin unterscheiden sich die Runlevel standardmässig?
0 - Shutdown
S - Einfacher Benutzer
1 - Eine Variante von S
2 - Netzwerkfreier Betrieb
3 - Netzwerkbetrieb
4 - normalerweise nicht belegt
5 - Reboot (oder war das 6 und 5 noch was mit nem X)

Das was hier gefordert wird muss man sich bei Unix/Linux genauso selbst basteln wie unter Windows.

vicbrother (unregistriert) 24. August 2014 - 19:30 #

6. Die Aufteilung ist aber nicht unter allen Linux-Anbietern gleich.

Unter Linux ist doch alles basteln ;)

ChuckBROOZeG 19 Megatalent - 19336 - 24. August 2014 - 19:47 #

Unter Solaris gibts glaube sogar 8 die sich auch nicht weiter groß unterscheiden.

Der Punkt ist gerade für Profile nach dem Motto jetzt Spiele ich mal ist nen Nix einfach ein schlechtes Beispiel :-D.

vicbrother (unregistriert) 24. August 2014 - 22:12 #

Hey, das ist meine erste und letzte Spieleplattform! :)

ChuckBROOZeG 19 Megatalent - 19336 - 24. August 2014 - 22:58 #

PC oder NIX? ^^

vicbrother (unregistriert) 25. August 2014 - 13:34 #

*nix

Sven Gellersen Community-Moderator - P - 24221 - 23. August 2014 - 20:00 #

Musst Du nicht mich fragen, ich habe nur die Feststellung getätigt, dass die Voreinstellungen, die Thomas vorgeschlagen hat, nicht vorhanden sind, was von Falcon aber widersprochen wurde.

Ob solche Voreinstellungen Sinn machen - keine Ahnung, ich bin Laie. Da es entsprechende Voreinstellungen aber auch zum Beispiel bei Monitoren gibt, würde ich mal vermuten, dass mit solchen Voreinstellungen die Leistung des Betriebssystems entsprechend des Profils optimiert wird.

Spiritogre 18 Doppel-Voter - 11995 - 23. August 2014 - 22:07 #

Genau das ist ja der Witz, welche Leistungseinstellungen sollte es da geben? Die "Leistungsprofile", die es auch in Windows von Haus aus gibt, machen doch nur für Notebooks Sinn (und selbst da nur eingeschränkt). In der Regel stellt man alles auf "volle Pulle", damit man die Leistung auch hat, wenn man sie benötigt. Denn wenn man sie nicht benötigt regelt sich die Hardware doch von selbst runter. CPU und GPU laufen ja eben nicht ständig mit voller Leistung. Das System regelt das alles also vollautomatisch, da benötigt man keine Profile.

Larnak 21 Motivator - P - 26055 - 23. August 2014 - 2:04 #

Ja, die meine ich.

Larnak 21 Motivator - P - 26055 - 23. August 2014 - 2:03 #

Tse, Konsoleros! ;p

Im Netzwerk- und Freigabecenter sind deine bestehenden Verbindungen in einer Art Tabelle aufgelistet. Links Name und "Ort" mit komischen Bildchen, rechts was es für eine Verbindung ist etc.. Der "Ort" ist "Öffentliches Netzwerk", "Arbeitsplatznetzwerk" oder "Heimnetzwerk" und mit einem Klick darauf kannst du ihn umstellen.

Sven Gellersen Community-Moderator - P - 24221 - 23. August 2014 - 2:07 #

Also gibt es doch nicht die Profile, wie sie Thomas Barth genannt hat. Ergo bleibt Falcons Aussage "Alles vorhanden" falsch und mein Hinweis darauf richtig ;)

PS: "Netzwerk- und Freigabecenter" hatte ich übrigens durchaus gefunden :D

Larnak 21 Motivator - P - 26055 - 23. August 2014 - 12:32 #

Ich habe doch gesagt "Für's Netzwerk gibt's die" und "für den Rest wüsste ich ehrlich gesagt nicht, was so ein Profil tun sollte."

Sven Gellersen Community-Moderator - P - 24221 - 23. August 2014 - 20:02 #

Dann haben wir ganz klassisch aneinander vorbei geredet :)

Larnak 21 Motivator - P - 26055 - 24. August 2014 - 0:58 #

Gerne wieder ;D

ChuckBROOZeG 19 Megatalent - 19336 - 24. August 2014 - 1:03 #

Geile Luzi! So macht das Fun! :-D.

Slaytanic 23 Langzeituser - P - 39284 - 24. August 2014 - 1:34 #

Die Luzi? Also Luzi, der Schrecken der Strasse? ;)

ChuckBROOZeG 19 Megatalent - 19336 - 24. August 2014 - 1:46 #

Neee die Rothaarige Sexteufelin ^^

Maverick_M 18 Doppel-Voter - 11642 - 24. August 2014 - 5:20 #

Rrrrrrrrh :>

Sven Gellersen Community-Moderator - P - 24221 - 24. August 2014 - 1:54 #

Freut mich, dass ich zur allgemeinen Erheiterung beitragen konnte^^

Maverick_M 18 Doppel-Voter - 11642 - 23. August 2014 - 19:45 #

Es gibt Netzwerkprofile, es gibt Energieverwaltungsprofile, es gibt Bildschirmprofile und es gibt sogar Hardware-Profile (Letztere habe ich noch nie in meinem Leben benötigt).

Was Du genau "Profilieren" (Hihi ;)) willst, weiß ich aber auch nicht. Bei Desktop-Rechnern ist das meiste davon (Bis auf die Energieverwaltung bspw.) Sinnbefreit, aber auf den meisten Notebooks lassen sich etwa die Monitoranschlüsse via WIN + P durchschalten und für die Energieverwaltung gibt es auch einen Hotkey (Grade entfallen), etc.

guapo 18 Doppel-Voter - 10625 - 23. August 2014 - 19:50 #

Das meiste davon ist sinnvoll, Stichwort Software-Betankung

Sven Gellersen Community-Moderator - P - 24221 - 23. August 2014 - 20:07 #

Ich möchte gar nichts per Profile optimieren :)
Ich habe mich hier nur kurz einklinken wollen, weil Thomas was von Profilen für Gaming, Office etc. geredet hat und die es seiner Meinung nach nicht gäbe. Dem hast Du widersprochen, woraufhin ich lediglich klarstellen wollte, dass es diese Profile seitens Windows als Betriebssystem eben tatsächlich nicht gibt (bzw. ich nicht weiß, wo diese zu finden wären). Mehr wollte ich gar nicht.

Ob das ganze sinnvoll wäre oder nicht steht auf einem ganz anderen Blatt und davon habe ich absolut keinen blassen Schimmer. Als Laie stelle ich aber die Vermutung auf, dass solche Profile in einem Betriebssystem sinnvoll wären, da sie in anderen Bereichen ja auch sinnvoll sind.

Spiritogre 18 Doppel-Voter - 11995 - 23. August 2014 - 22:17 #

Profile bieten aber eben nur feste Voreinstellungen und da kommt Windows eben von Haus aus in einer Standardkonfiguration. Meiner Meinung nach braucht es so etwas spätestens seit Windows 95 nicht mehr. Ansonsten stellt halt jeder Nutzer sein eigenes Profil ein. Und mehr als eines benötigt man ja auch nicht, wenn doch, dann loggt man sich halt als anderer Nutzer ein, wo dann irgendwas (was?) anders eingestellt ist.

vicbrother (unregistriert) 23. August 2014 - 12:29 #

Du meinst so wie unter Linux: Geht alles sofort und Abstürze gibt es alle drei Jahre.

Die Konzentration auf das eigene Wissen und Anwendung finde ich auch wichtiger, als zu wissen, in welchem Regkey mein Problem gelöst werden kann.

IT sollte nicht Probleme lösen, sondern neue Wege finden diese zu umgehen und neue Anwendungen und Lösungen kreieren.

Right Said Fred (unregistriert) 22. August 2014 - 18:43 #

Stimmt, das Problem bin ich. Immerhin hat Mick aus Solidarität mit mir auf einen Test zu X:Rebirth verzichtet, ich wäre sonst vor Scham im Boden versunken. ;-)

Und da ich nicht gerade der jüngste bin, weiß ich noch was für Probleme Windows 95, Windows 98 und Windows Vista mir beim zocken bereitet haben. Sorry Konsolen, aber da könnt ihr einfach nicht gegen anstinken.

Mit Linux hab ich übrigens überhaupt keine Probleme, leider gibt es dort aber viel, viel weniger aktuelle Spiele als auf Windows. Ist für Gamer also eine schlechtere Alternative als eine PS4.

Goldfinger72 15 Kenner - 3136 - 22. August 2014 - 6:03 #

Kann man nur unterschreiben. Aber Inhalte und Spielspass zählen heute leider nicht mehr. Der Spieler von heute starrt lieber auf seine FPS Anzeige oder zählt die Pixel von Grashalmen.

Leider wird dieser alberne Technik Krieg von vielen Medien noch angeheizt.

Thomas Barth 21 Motivator - 27682 - 22. August 2014 - 6:36 #

Und warum wird er angeheizt? Weil es Klicks bringt, auch wenn alle genervt sind. Das einzige was wir machen können ist, solche News einfach ignorieren und stattdessen zocken.

Slaytanic 23 Langzeituser - P - 39284 - 22. August 2014 - 10:17 #

Ich bin nicht genervt! Finde es immer wieder amüsant.

Elton1977 19 Megatalent - P - 15428 - 22. August 2014 - 7:47 #

1080p ist mein Favorit auf das Unwort des Jahres ...

Einem wie mir, dem Spiele wie das alte UFO auf dem PC immer noch großen Spaß macht, muss so eine Diskussion aber auch auf den Sack gehen.

Wobei ich aber auch verstehen kann, dass sich eine gewissen Anzahl von Leuten an der technischen Leistungsfähigkeit der neuen Konsolen stört.
Spielspaß sollte aber trotz allem im Mittelpunkt stehen.

Aladan 22 AAA-Gamer - - 36422 - 22. August 2014 - 8:00 #

/Sign

Ach wo ich gerade hier schreibe.

Habe letztens mal wieder Crono Trigger ausgepackt. Ihr wisst schon, eines der besten Rollenspiele aller Zeiten.

Und was ist?! Ich musste mit entsetzen feststellen, dass das Ding keine 1080p hat! Wtf, das Stück Müll rühre ich niemals wieder an..sowas aber auch!

bigboulder 13 Koop-Gamer - 1348 - 22. August 2014 - 12:54 #

Aber wäre es nicht gleichermassen traurig wenn die Spiele trotz technischem Fortschritt immernoch so aussehen würden wie 1992?

Ich dachte damals als Warcraft 2 raus kam das Spiele in ein paar Jahren die grafische Qualität der Zwischensequenzen besitzen werden und das war auch tatsächlich der Fall . Bei Warcraft 3 dauerte es schon bedeutend länger.

Es stagniert einfach extrem im Bereich Grafik seit knapp 7-8 Jahren.

Das es ebenfalls im Bereich spielerischer Innovation stagniert, bestreite ich auch nicht.

Toxe 21 Motivator - P - 29971 - 22. August 2014 - 13:14 #

Für mich ist die Grafik an einem Punkt angekommen, wo sie von mir aus bleiben kann und sich nicht mehr extrem weiterentwickeln müßte. Ich persönlich will auch gar keine ultrarealistische Grafik haben, mir sind Spiele lieber, die einen eigenen Stil haben und diesen dann auch konsequent durchziehen. Nehmen wir zB. Dishonored: Sieht toll aus, ist aber alles andere als realistisch.

Mir wäre lieber, wenn die ganzen Resourcen, die in die Technik gesteckt werden, eher wieder in Spieldesign und Gameplay eingesetzt würden. Hübsche Spiele hatten wir jetzt lange genug, ich hätte gerne wieder GUTE Spiele.

Azzi (unregistriert) 22. August 2014 - 13:38 #

Naja genau DAS wird aber schon seit jeher gesagt. "Oh Unreal sieht so realistisch aus, glaube da wird in Zukunft nicht mehr viel gehn, mir reicht das auch." Sowas in der Art durfte man bei jedem neuen Grafikkracher hören, heute lächtelt man müde drüber wenn man sich das heute anschaut. Und genau das gleiche wird in 10 Jahren sein, wenn man mit seiner 3D Brille oder sowas in der Art dasitzt...

Ansonsten brauch auch von meiner Seite ein Spiel keine HighEnd Grafik so lange das Ganze irgendwie stimmig ist. Auch ein WoW oder ein altes 2D Spiel haben noch ihren Charme und stören mich nicht. Was ich allerdings nicht mag sind so Blur-Effekte und schlechte Animationen. Auch Matschtexturen sind unschön.

vicbrother (unregistriert) 23. August 2014 - 12:34 #

Volle Zustimmung. Insbesondere im UI-Design könnte sich noch etwas tun, gerade The Witcher 3 mit seiner dauerhaft eingeblendeten und nichtssagenden Minimap zeigt wie es nicht sein sollte.

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 14:20 #

Also auf Android schon ^^.

Aladan 22 AAA-Gamer - - 36422 - 22. August 2014 - 15:42 #

Mein Crono Trigger Modul passt einfach nicht in mein Handy rein :-/

ChuckBROOZeG 19 Megatalent - 19336 - 22. August 2014 - 16:02 #

Du Konsumverweigerer!
Sqare bietet doch extra günstig solch moderne Spiele im Play/App-Store an! Nur 12,99-16,99 und du bist dabei!

Spiritogre 18 Doppel-Voter - 11995 - 23. August 2014 - 0:57 #

Dabei gibt es sogar für Android SNES Emulatoren. Nur die Steuerung ist halt doof, es sei denn man stöpselt ein Gamepad an.

AticAtac 14 Komm-Experte - 2218 - 22. August 2014 - 10:11 #

Auflösung, Gameplay, ... ?
Ist alles wichtig! Wie wichtig, muss jeder für sich selber gewichten. Eine Diskussion, dass das eine wichtiger ist als das andere, verläuft oft in Glaubenskriege. Also immer wichtig, nicht von sich aus auf andere schließen.

Maverick_M 18 Doppel-Voter - 11642 - 22. August 2014 - 16:19 #

Sehe ich genauso. Jeder nach seinem Gusteau.

Was ich dagegen etwas eigenartig finde, wenn Konsoleros plötzlich behaupten, die Auflösung wäre nicht wichtig. Schön und gut. Aber warum dann überhaupt eine neue Konsole kaufen? Die alte hat doch genauso gut funktioniert und liefert genausoviel Spielspaß wie eh und je. Da braucht man doch die neue Konsole für die bessere Grafik - die doch angeblich eh nicht wichtig ist - gar nicht. (Zumindest so lange, bis keine Spiele für die Generation mehr rauskommt)

guapo 18 Doppel-Voter - 10625 - 22. August 2014 - 17:28 #

fremdspracheln ja, aber bitte richtig :^)

Maverick_M 18 Doppel-Voter - 11642 - 23. August 2014 - 3:13 #

Ja, "Gusto"... Was-auch-immer. War schon wieder drei Sätze weiter. Und hatte potentiell Hunger.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)