Update vom 18:10 Uhr:
Inzwischen hat CD Projekts Marketing Manager Tomasz Tinc zu den Aussagen Texeiras, dass The Witcher 3 auf den Konsolen möglicherweise keine Auflösung von 1080p erreichen werde, Stellung bezogen. Gegenüber dem Magazin Gamespot gibt er an, dass der Titel konstant optimiert werde und derzeit noch keine Zahlen fest stehen:
Wie [Texeira] sagte, arbeiten wir hart daran, das Spiel zu optimieren. Es ist noch nichts in Stein gemeißelt. Unser Engine-Team bleibt optimistisch und wir werden sicherlich das Maximum aus jeder Konsole quetschen.
Bevor der Optimierungsprozess abgeschlossen sei, könne das polnische Studio keine konkreten Zahlen zur finalen Framerate oder Auflösung sagen, so Tinc.
Ursprüngliche News von 12:56 Uhr:
The Witcher 3 - Wild Hunt (GG-Angeschaut) gehört zu den grafisch aufwändigsten und beeindruckendsten Spielen der diesjährigen gamescom, Eindrücke vom Titel könnt ihr euch im 35-minütigen Gameplay-Video einholen (wir berichteten). Aufgrund der grafischen Opulenz stellt sich jedoch die Frage, wie gut die Konsolenversion aussehen wird und ob sie im Vergleich zur PC-Fassung einige Abstriche hinnehmen muss. Ein anonymer Insider hat noch im April behauptet, dass The Witcher 3 auf der Konsole ungefähr den niedrigen Details der Computer-Version entsprechen würde. Dies wurde von CD Projekt Red nicht bestätigt. Im Bezug zur Auflösung und Framerate hat sich inzwischen jedoch Jose Texeira, Visual Effect Artist beim polnischen Studio, in einem Interview mit dem Magazin Worldsfactory zu Wort gemeldet. Laut ihm liege dem Team eine stabile Bildwiederholrate von 30 FPS eher am Herzen als das Erreichen von 1080p – wobei Letzteres "wahrscheinlich nicht" erreicht werde.
Idealerweise drängen wir auf 30 Bilder pro Sekunde. Bei der Auflösung kommt es noch darauf an, wir arbeiten daran, um sie so hoch wie möglich ausfallen zu lassen. Wenn wir 1080p erreichen können, dann machen wir das natürlich. Aber ich kann nicht sagen, dass wir es schaffen werden. Um ehrlich zu sein, weiß ich es wirklich nicht. Wahrscheinlich nicht. Aber wir benötigen eine ausgeglichene Framerate, also mindestens 30 FPS.
Die Arbeit an den Konsolen schreitet allerdings deutlich besser voran als erwartet, wie Texeira verrät. So hätte das Entwicklerteam vermutet, dass das Spiel zu Beginn auf PS4 und Xbox One nur abstürzen würde, bis einige Zeit in die Optimierung gesteckt werde. Allerdings lief es bereits von Beginn:
Wir erwarteten, dass [The Witcher 3] gar nicht funktionieren und einfach abstürzen würde, weil es so aufwändig ist. Aber es läuft tatsächlich. Wir sind noch nicht ganz dort, [wo wir sein wollen,] aber es läuft. Mit noch etwas mehr Optimierung werden wir es gut zum Laufen bekommen.
In einem weiteren gamescom-Interview mit Dualshockers gibt sich der Visual Effect Artist sogar noch optimistischer. Laut ihm wären manche Bereiche des Spiels auf Konsole sogar bereits mit 30 Bildern pro Sekunde vollständig spielbar. Allerdings könne er noch nicht mit Sicherheit sagen, ob die schlussendliche Framerate im Spiel festgelegt oder dynamisch ausfällt.
Ob sich die Worte von Texeira bewahrheiten, könnt ihr ab dem 24. Februar 2015 selbst erfahren – denn dann erscheint The Witcher 3 - Wild Hunt für PC, Xbox One und PS4.
Kein 1080p auf Konsolen? Hab meine Vorbestellung storniert!
Soweit ich die Debatten verfolgt habe ging es doch immer nur um 30 oder 60FPS bei 1080p, hier ist nicht mal sicher, ob 30FPS bei 1080p erreicht werden können? Unschön.
Naja nun - es ist eine Konsole.
Konstante Hardware hat eben nicht nur Vorteile.
war ja jetzt auch nicht wirklich ernst gemeint. ;) Mir sind 1080p ansich total egal, hab meinen Spaß auch mit 720p und gar darunter. Nur leider scheint es derzeit absolut wichtig zu sein, dass ein Spiel 1080p erreicht, koste es was es wolle... so als wäre alles unter 1080p nicht mehr viel wert gespielt zu werden.
Ich schaue auch gerne ältere Filme - sind diese auf Grund des schlechteren Bildes nun nicht mehr so unterhaltsam? Ganz im Gegenteil. So lange einen die Story packt, sollte die Auflösung doch wirklich zweitrangig sein.
Hatte die Antwort auch schon im Kopf: wenn man mal an die alten b/w Hitchcock denkt ..
Schau mir trotzdem lieber die HD-Umwandlung von alten Filmen an.
Naja aber wer sich ne Konsole holt, braucht auch keine Qualität, sondern will Komfort und Einfachheit. Und genau das bekommt er oder sie... keine Qualität. :P
Das wäre ja nicht schlimm, wenn wir PC´ler nicht darunter leiden müssten... Bei uns wird dann oft die Qualität runtergeschraubt damit die Spiele überhaupt auf den Konsolen lauffähig sind.
Vielleicht die PCler mal mehr Originale kaufen. Dann wären sie vielleicht auch relevanter für den Markt.
haha ich lach mich schlapp. Der war gut! Und so originell! Und so unglaublich wahr! Das wenn überhaupt halbe Prozent Marktanteil muss schon ach lassen wir das. Meine Schenkel tun mir vor klopfen schon so weh ich brauch Pause ^^.
Zudem ist die Frage, wie hoch die Verbreitung von leistungsfähigen Rechnern ist. Der Großteil der PC-Masse wird wahrscheinlich nur für Internetsurfen und Wimmelbildspiele genutzt.
Du willst das ich vor lachen sterbe oder?
Statistiken aus der Szene selbst (Etwa von großen Download-Portalen) zeigen, dass wesentlich mehr Konsolenspiele raubkopiert werden als PC Spiele.
Hmmm, seltsam, nicht wahr!?
Du willst doch nicht nem Troll mit Zahlen kommen?
Dann liegt ihr beide falsch...
Die alten Filme haben keine niedrigere "Auflösung". 35mm Film hat sowas nicht. Vernünftiger Standard für die Digitalisierung dieser alten Schätze ist eine Abtastung des analogen Materials in einer 4K Auflösung (4096 x 2160). Selbst wenn diese Filme nur in 2K Auflösung gemastert werden ist es mehr als FullHD.
Gut gemasterte Filme sehen dann nicht nur im TV, sondern auch im Kino mehr als gut aus...
Von falsch kann man nicht sprechen:
- Schwarzweiss (darauf beziehe ich mich im wesentlichen) hat nunmal keine Farben :-)
- Remastering kostet ordentlich, also braucht man Geld und entsprechende Power
Schwarzweiß ergibt eine Menge Grautöne und das ist eine Farbe. :)
Da haben sie 28 Grautöne
https://www.youtube.com/watch?v=ckIrhRKwgCg
S/W als unterlegende Technik anzusehen ist aber auch diskussionswürdig. Klar, zunächst gab es nichts anderes und später war sowas wie Technicolor erst noch sauteuer. Aber etwa um die Siebziger herum gabs auch viele Filme, die s/w zu einer künstlerischen Wahl gemacht haben. Man denke an Eraserhead, verschiedene Jim-Jarmusch-Filme, Schindlers Liste, Good Night and Good Luck... mit Renaissance gibts sogar einen CGI-Film in s/w.
Das passt im Vergleich doch aber super. 8-Bit-Optik mit 2 mal 3 Pixel-Auflösung und wird heute auch immer wieder gern für bestimmte Spiele genutzt.
Wenn man denn unbedingt Film und Spiel auf dieser Ebene miteinander vergleichen müsste, dann würde ich dem am ehesten zustimmen. Ein Fez z.B. würde mit der Unreal Engine 4 wohl nicht funktionieren.
Falls du mir das unterstellen solltest, ich gehe d'accord mit deiner Einschätzung. Aber die Masse sucht (vermeintlich) perfekte Technik (16.7 Mio Farben), hohe GHz-Zahlen, hohe Auflösungen, etc...
... die für ein RPG, dessen Spielantrieb ja auch viel von der Entdeckung und Erkundung abhängt, sicherlich nicht nebensächlich ist. ;)
Klar. Ich denke da vor allem an Gothic. Wenn man da durch die mit vielen Pflanzen bewachsenen Wälder lief und plötzlich von einem Monster angegriffen wurde, weil man es übersehen hat - das ist in 8-Bit nicht zu reproduzieren.
Ab einer gewissen thread-Tiefe dreht man sich im Kreis
Eine topologisch hochinteressante Behauptung! :O
Sicher sucht die Masse das. Gibts im Film auch. Der Grund etwa, warum das 90er-Jahre-Remake von Psycho existiert ist der, dass Leute ungern Filme in s/w sehen, auch wenn die Geschichte noch so spannend ist. Aber die Masse hat nicht gerade ein tiefgründiges Verhältnis zur jeweiligen Medienform mit ihren individuellen künstlerischen Ausdrucksformen.
Diskutiere mit Vicbother weiter :-)
Gern. Ich sehe jeden Film, jedes Buch, jedes Hörspiel als eigene Interpretation des Stoffs. Damit hat jedes Werk seinen künstlerischen Wert und Sinn, aber das hält mich nicht davon ab bspw die erste Moby-Dick-Verfilmung (1956) besser als Buch, Hörspiele und die anderen Verfilmungen zu sehen und diese zu verwerfen.
Das habe ich gar nicht bedacht. Stimmt schon. An der Kernaussage meienr Meining ändert das aber nicht viel. Ich spiele auch gerne noch Mario Kart auf dem SNES und habe dabei Spass...
Dummerweise werden aber Filme schon seit fast von Anfang an auf 35mm gedreht. Und aus einem solchen 35mm Filmstreifen lassen sich ohne weiteres Auflösungen bis deutlich über 4k herausholen. Wie gut die Bildqualität ist, hängt hier also eindeutig vom Zustand der Filmrolle und ggf. dem Aufwand der Nachbearbeitung nach.
Ich habe Filme aus den 20er und 30er Jahren gesehen, respektive in meiner Sammlung, die bessere Bildqualität bieten als so mancher aktuelle Film.
Die aktuellen Konsolen schaffen es dagegen nicht einmal die native Auflösung Deines FullHD Fernsehers anzusprechen. Das ist mehr als traurig.
Der vergleich hinkt doch total:
erstens gibts auch 16 und 72mm :-)
eigentlich geht's um den Mastering Aufwand, in zwei Jahren werden die coder auch mehr aus (beiden) Konsolen rausholen können
70mm. ;)
aufmerksam, aber an der Kernaussage vorbei
klar weil Sony vor allem Sony Microsoft ständig unter die Nase reibt wie schlimm es sei keine 1080p zuhaben. Das man aber selbst nicht in der Lage ist anspruchsvolle Titel in 1080p zu befeuern sollte man vielleicht einfach mal Still sein.
Das ganze Hauptsache 1080p und 30 Fps ist sowieso ein Witz, sowie Metro das gemacht hat das ist in Ordnung. Lieber Grafik Einstellungen zurück schrauben dafür gescheite Fps zahlen bekommen. Negativ Beispiel ist für mich the Order keine 1080p sondern noch einen verkleinerten Bildausschnitt das ja angeblich Filmischer aussehen sollte. Woll eher im Vollbild läuft es nicht mehr, den zur Fps aussage das es keine 30 Fps halten könnte, kam das soll zur Filmischen Inszenierung bei tragen.
"klar weil Sony vor allem Sony Microsoft ständig unter die Nase reibt wie schlimm es sei keine 1080p zuhaben."
-> Mal wieder meine Lieblingsfrage an Dich: Kannst Du Deine Behauptung in dieser Form irgendwie belegen? Oder ist das wieder einmal ein alberner Konsolen-Trollversuch?
Wann hat Sony zuletzt nochmal gesagt "haha MS die können nichtmal 1080p"? Hilf mir bitte auf die Sprünge.
Nun sind wir schon zwei, die das wissen wollen. Aber ich fürchte, wir werden bei Jadiger vergeblich warten.
Da ich beide Konsolen nicht habe: die Sony-Fanboys kapern schon häufiger M$-News als umgekehrt.
Und Sony hat die dafür bezahlt oder wie? :p
Das habe ich weder gedacht, geschrieben noch gemeint. Aber das weisst du ja.
[schlechtes rhetorische Mittel]
Ich wollte nur darauf aufmerksam machen, dass es mit Sony nichts zu tun hat, wenn irgendwelche Sony-Fans irgendwo was schreiben :)
Ja auf Transfermarkt.de posten auch immer erst die FCB Fans in BVB Threads deswegen haben auch die BVB Verantwortlichen irgendwas davon was dise FCB Fans schreiben gesagt.
kenne URI und Seite nicht, aber ja: anderswo ist's ähnlich
Ich weiß es! Deaktiviert doch einfach das Über-Sampling. ;)
Vielleicht - und das ist jetzt nur Spekulation - bekommen sie die 30fps hin, wenn die Grafik deaktiviert wird. Besser als nix!
Ach Quark einfach die Eingabegeräte deaktivieren und als selbstlaufende Demo ... passt :-D.
Vorgerendert wohl gemerkt. Denn sonst klappts immer noch nicht. :D
Dann aber auch 4k 60Fps!
Naja, oder sie machen ein 2D-Kniffel-Spiel draus! In Full-HD!!
Für nen 4 Gewinnt sind bestimmt auch beide Konsolen gut ^^
dann ist bestimmt die KI scheiße
Man kann nicht alles haben!
oder es sterben Menschen in $KRISENHERD
Nein! Oder man benutzt einen PC :-D.
Was für eine Überraschung. Ich hätte fast gedacht, das bisherige Material lief alles auf Konsolen ....NOT!
Witcher ist und war schon immer ein PC-Only Franchise. Die Konsolen können froh sein, diesmal einen Port dahingeklatscht zu kommen. CDPR nimmt das Geld gerne um die PC-Version besser zu machen und die Konsolen-Typen sind ja sowieso Matschgrafik in 720p/30fps gewohnt.
"Laut ihm wären manche Bereiche des Spiels auf Konsole sogar bereits mit 30 Bildern pro Sekunde vollständig spielbar."
In einer Haus-Ecke, wenn man auf den Boden guckt?
Der Loading-Screen.
2 von 3 Wichter-Spielen gibt es auf Konsolen... so sehr PC-only scheint es nicht zu sein. Und Witcher 2 auf Konsolen war ein sehr guter Port. Wird hier sicher nicht anders sein.
Hat zwar ewig gedauert, aber der Port war wirklich super, sowohl Grafik als auch Steuerung. Denke bei Teil 3 wird das nicht großartig anders, schon allein, weil da ein Großteil der Verkäufe generiert wird.
Unterschätze die Verkäufe auf den PC nicht, gerade die DRM Politik von CD Projekt trägt seinen Teil dazu bei das die Spieler das auch honorieren.
Ja, da bin ich sehr gespannt. Aber allein schon die vermutlich abnormen Hardware-Anforderungen werden dann doch viele ausschließen. Ich meine, wenn sie schon auf der Lesitungsfähigkeit der neuen Konsolen rumhacken, wird das sicher nicht für Standard-Rechner optimiert.
Da geb ich dir recht. So gehts mir bei Witcher 2 vernünftiges Spielen kaum möglich und mein Rechner schafft sonst noch alle aktuellen Spiele. xD
??
Das lief selbst auf meiner alten Kiste Intel Q9650 Gtx 570 Phantom in Full Hd und allem Firlefanz auf high und on absolut flüssig.
Amd Kunde? ;-)
Nope schon Intel die Anforderungen schafft mein Rechner locker nur habe ich immer massive Frameeinbrüche und irgendwann hab ich es aufgegeben zu suchen worans den liegt.
Ich weiss heutzutage ist man sowas kaum noch gewöhnt, aber am PC kann man tatsächlich die Details runterstellen. Dann laufen Spiele auch auf schlechteren Rechnern noch.
Kommt drauf an, woran es hakt. Wenn die CPU überfordert ist, hilft auch das Reduzieren der Grafikdetails oft nichts mehr.
Dann hat man aber eine sehr, sehr betagte CPU!
The Witcher 1 wurde doch eingestellt für Konsole? kam das jetzt doch noch?
Noe.
Ist auch völlig unerheblich, ob es die auch auf Konsolen gibt.
CD Projekt Red machte es (bisher) richtig. Zuerst die PC Version. Dann den "Breakdown" auf Konsolen. Ganz im Gegenteil zu vielen anderen Entwicklern.
Ob das bei Teil 3 auch so aufgeht, werden wir ja sehen.
Das war auch mein erster Gedanke, dass beantwortet die Frage ob das gezeigte die Konsolenversion gewesen ist und da stellt sich dann die nächste - sind die Konsolen in der Lage das Spiel in der Qualität mit 30 Frames darzustellen und dann bei welcher Auflösung? Vermutlich wird es auf Konsolen nicht so aussehen wie in den bisherigen Präsentationen...
Es ist aber schonmal zu begüßen, dass CD Project hier anscheinend tatsächlich den PC als Lead Plattform nutzt.
Quark, Witcher2 ist immer noch eins der hübschesten Old-Gen Konsolenspiele und läuft auch mit Gamepad ganz gut. Warum soll es ein reines PC Spiel sein?
Solange ich am PC mein gewohntes Witcher kriege, gönne ich auch den Konsoleros diese tolle Serie...
Jo so missgünstiges Gedankengut das andere ein Spiel gar nicht haben sollen braucht man nicht.
Solange jede Plattform ordentlich genutzt wird sollen doch alle jedes Spiel haben.
Ist ja auch gut für den Entwickler, und CD-Project sind (noch) kein Multimillarden Dollar Konzern. (War Gog.com nicht sogar mehr mals schon kurz vor dem Bankrott?)
Die Bankrott-Meldung war ein Marketing-Witz. Von tatsächlichen Fast-Bankrott-Meldungen habe ich jedenfalls noch nicht gehört.
Hm. Entweder hast dus dann noch nicht gehört oder einige nehmen den Witz immer noch ernst. Von Gog.com selbst hab ich zugegebenermaßen auch noch nichts gehört.
Es gibt auf jeden Fall immer noch Leute, die diesen Scherz ernst nehmen bzw. bei denen sich das irgendwie eingebrannt hat. Ob das jetzt auch Grund für die Geschichten ist, die du kennst, kann ich aber auch nicht sagen ^^
Lustigerweise sehe ich aber meistens die Konsoleros jubeln, wenn ein neues "Exklusivspiel" angekündigt wird...
Ja darauf hab ich angespielt!
Juhu endlich was exclusives das mir meine Entscheidung für die Plattform gerechtfertigt.
Noch besser sind diejenigen die meinen "dieses jenes welches Spiel hätte ich doch noch lieber als Exclusivspiel.
Und am schärfsten (aber ganz seltenen zum Glück) sind die die meinen das Spiel als Exclusivspiel würde es interessanter machen.
PC-Gaming mag für E-Sports die bessere Plattform sein, aber mir geht mit Tastatur+Maus vor dem Monitor die für ein so ein Spiel notwendige Immersion flöten. Da nehme ich die schwächere Grafik gerne in Kauf.
hindert dich niemand daran, die pc-version mittels gamepad vorm TV zu spielen.
Dafür hab ich den falschen PC. ^^
Aber mit einem Laptop ist das natürlich kein Problem.
Und bei vielen PC-Spielen wie z.B. Mass Effect ist mir aufgefallen, dass es überhaupt keine Gamepad-Unterstützung gibt oder wenn nur für das 360-Gamepad for Windows.
für letzteres problem gibts das tool x360ce. damit kannste dann auch wieder beliebige controller verwenden in solchen spielen.
"Dafür hab ich den falschen PC. ^^"
Es gibt noch PCs ohne USB-Anschluss? :p
Nein, aber Desktop-PCs die man eben nicht durch die Wohnung schleppt.
Iss mehr Spinat! :)
Och, ich mach das manchmal. Gerade neulich für Dark Souls hab ich mir den ein Wochenende an den Fernseher gestöpselt :)
Mein Rechner hängt am 46 Zoll TV und ich habe ein Gamepad - beste beider Welten... :)
Meiner an einem 55zoll und ich habe zwei (!) gamepads! Dann kann ich sogar weiterspielen, wenn die batterien im ersten leer sind!
Man könnte sich auch einfach noch ein Paar Eneloops kaufen und dann einfach die Akkus wechseln ;)
"..aber mir geht mit Tastatur+Maus vor dem Monitor die für ein so ein Spiel notwendige Immersion flöten. "
Das kann ich nur schwer nachvollziehen.
Ich habe meinen Pc auch teilsweise über den Fernseher laufen und Spiele Shooter und ähnliche Genres in Egosicht preferiert auf dem Monitor. Mit 5.1 Headset und ner vernünftigen Maus/Tastatur ist mein immersives Erlebnis so um einiges besser als distaniert vorm Fernseher.
Vor allem die vor dem Körper zwanghaft zusamgegehaltenen Arme am Controller reissen mich da immer raus aus der "Immersion"
Keine Ahnung die natürlicher ausseinander liegenden Arbe bei Maus/Tastatur liegt mir mehr.
ICh hab mal versucht DMC3 mit Gamepad auf dem PC zu spielen, ich hab so grandios versagt, das ich wieder Tastatur und Maus genommen hab... damit gings besser (aber auch nicht gut^^)
Hehe ist sicher auch ne Frage der Gewohnheit.
Aber ich hab vor 2 Wochen erst mal versucht eines der angeblich besten Spiele aller Zeiten zu spielen, Ocarina of Time, und sorry dieses Gamepaddingsteurung ging gar nicht.
Den wirklich genau ausrichten war nicht drin und ständig war die Auswirkung der Eingabe (des Analogsticks) anders ...
Ok liegt natürlich auch am Steuerkonzept schräg von oben aber doch nicht 3rd Person mit mitdrehendem Boden sondern fester Boden und die Figur immer anders (Größe und Richtung).
Nach ner Stunde hab ich das Ding einfach ausgemacht und keinen Bock mehr ^^.
OoT auf dem N64 mit N64 Controller? Oder etwa mit Emulator auf PC und unpassendem Standard-Joypad?
Das Spiel ist extrem auf das N64 Pad ausgelegt. Und dieses Pad benötigt etwas Einarbeitung, da es damals wie auch heute durchaus zunächst mal ungewohnt ist. Am besten ist, man übt mit Mario 64 ein wenig.
PS: Die 3DS Version von OoT ist ein wenig einfacher in der Handhabung.
Das war ein originaler N64 an einem echt schlecht skalierendem HD Ready TV ... grausam! Beides Steuerung und Aussehen ^^
Ich spiele am PC auch lieber mit Maus und Tastatur. Ich habe ein gutes Gamepad aber gefühlt spielt sich mit Pad dort einfach nicht so flüssig, weiß auch nicht, woran das liegt.
Anders herum würde ich ein Spiel wie DMC aber auch nie auf dem PC spielen. Das ist für mich ein klassischer Konsolen- und auch Joypad-Titel.
Also Rogue Legacy hab ich in der Tat lieber mit Pad gespielt.
Ich spiele wirklich sehr gerne auch mal mit dem Gamepad am Rechner. (Tomb Raider, Assassin's Creed und dergleichen kommt für mich ohne Gamepad gar nicht in Frage.) Aber die Gamepad Steuerung bei The Witcher 2 war deutlich schlechter als die Maus/Tastatur Steuerung.
Mich persönlich würde ja eher das eingeschränkte Sichtfeld der Konsolen (lumpige 16:9) der Immersion berauben. Aber das sind alles Luxusprobleme...
Ach bitte, jetzt tu doch nicht so als hätte die Mehrheit der Spieler etwas breiteres als ein 16:9 Display zu Hause...
Nee ich glaube auch nicht das er auf breiter aus war ^^.
16:10 ist nämlich das schickere Format :-P.
Doch, war ich. Habe aktuell einen 21:9. Davor hatte ich ein Triple-Monitor-Setup. (48:10)
Das war einer der Gründe, warum ich meine 360 seit Jahren nicht mehr angerührt habe, bis ich sie endgültig verkauft habe.
Aber was glaubst Du denn, wie viele Leute etwas breiteres als 16:x haben? (Spoiler: Kaum jemand.)
Na da warte mal ab.
http://www.cnet.de/88135218/ifa-lg-zeigt-219-curved-ultrawide-display-und-monitor-fuer-gamer/
:D
Er hat nie irgendwo behauptet, dass viele etwas breiteres haben. Er hat nur gesagt, dass es für ihn persönlich der Grund ist, warum Konsolen nicht mehr in Frage kommen.
Richtig. Die Immersion durch das breitere Format will ich nicht mehr missen.
Abgesehen davon: Vor 5-10 Jahren hatte auch noch kaum einer einen 16:9 Bildschirm, und jetzt ist er Standard.
Ich denke, 21:9 wird der neue Standard. Die TV Hersteller springen jetzt ja auch auf den Zug auf. 4K ist als Zugpferd im TV Segment nicht gut genug. Das schickere Beinahe-Cinemascope Format dann aber schon. Ich denke, da werden viele den Nutzen eher sehen.
bevorzuge im pc-bereich immer noch 16:10-geräte und die werden ja auch noch angeboten.
Was aber leider immer weiter zurück geht :-(
Mein liebstes Setup auf dem Schreibtisch ist ein 16:10 und ein 4:3 mit gleicher Ppi und vertikaler Auflösung.
Aber das kann ich mir leider mittlerweile abschminken.
16:9 würde ich ja auch noch akzeptieren. darüber wirds mir aber zu dumm, da ich doch hier und da mal pivot-modus nutze. das ist bei so einem extremen widescreen-format allerdings ziemlich dämlich.
16:9 und breiter bei reinen Multimedia (wie Fernseher btw Tele 5 bester Sender Ever man bekommt jeden Haifilm zu sehen ^^) Geräten ok.
Am Computer finde ich das persönlich eher blödsinnig, dann halt doch gleich 2 Monitore (gibt ja auch fast Randlose bzw auf zusammenstellen optimierte).
Manche Sachen die man auf so einem breiten Sichtfeld parallel machen möchte profitieren halt auch von Vollbild was dann nicht mehr geht. Z.b. was Film/serienmässiges auf dem zweitschirm laufen lassen und auf dem Hauptschirm arbeiten/recherchieren/spielen. Ich zB hab bei manchen Spielen (Beispielsweise OpenXcom oder D3) auf dem Zweitschirm noch eine Youtbube Playlist laufen, und prinzipiell beim Multiplayer spielen den TS, Statistiktool und Trillian laufen.
Für solche Dinge habe ich neben dem 21:9er parallel noch einen 16:10 im Portrait-Modus. Ohne Multi-Monitor geht nicht... Bin seit 15 Jahren Multi-Monitor Nutzer, mit nur einem Bildschirm könnte ich nicht mehr arbeiten :D
Gezockt wird aktuell aber "nur noch" auf einem 21:9er. Das Format ist schick, bietet ein breiteres, Rahmenfreies Sichtfeld.
Ich wünschte Notebooks hätten Doppelmonitore...
Ansonsten habe ich an meinen Dockingstations immer zwei weitere Monitore, davon einen im Hochformat. Das ist wirklich genial zum Lesen von Webseiten.
Zum Arbeiten benutze ich auch 16:10 Monitore, und ich verstehe auch nicht, warum sich das nie durchgesetzt hat. Schade drum.
Im Endeffekt passt mit bei 1080 Bildpunkten einfach zu wenig Text auf eine Seite.
Mal schauen wie das in ein paar Jahren mit höherer ppi aussieht. Im Endeffekt passiert ja auch ne Art Skalierung so das es durchaus sein kann das sich die Bildhöhe im Textbereich größer "anfühlt".
Dann kann ich auch mit 16:9 oder breiter leben.
Alternativ muss ich wirklich wenn mein 27Zöller jetzt den Arsch hoch macht dann mit nem Pivot Gerät für Webbrowser und co arbeiten.
Mein alter 22 Zöller hat auch 16:10, bei meinem neuen 27 Zöller mit 16:9 ist die Bildhöhe nur minimal größer. Schon bei dem alten fand ich viele Webseiten, gerade wie diese hier, einfach ungünstig. Von daher bin ich sehr dankbar, dass der neue Monitor eine Pivotfunktion hat. Das macht das Lesen bzw auch Bearbeiten von Texten gleich viel angenehmer.
Ja Webseiten mit festen Frames, was heutzutage Standard ist, ich hasse es.
Auch wenn CS was feines ist, belegen kannst du das aber nicht, oder?
Test hat vor kurzem UHD-TVs getestet und sieht dort offenbar die größte Zugkraft.
Noe. Nur meine persönliche Einschätzung.
Dank fehlendem Material wirst Du den Average Joe nicht davon überzeugen können, warum 4k nun so viel besser als Full-HD sein soll. Blu-Rays bieten noch keine 4k, erste Streaming-Dienste die 4k streamen fangen auch gerade erst an. Und dort ist die Bitrate eher mies und ohnehin die Breitbandanbindung in Deutschland zu unterentwickelt.
Am PC benötigst Du enorm viel mehr Leistung für 4K Auflösungen, hast gleichzeitig aber unter Windows wieder andere Probleme, denn die DPI Skalierung unter Windows ist ziemliche Moppelkotze. Viele Programme funktionieren mit der Skalierung nicht ordentlich, selbst Windows selbst arbeitet hier nicht immer ordentlich.
Dem gegenüber steht bei 21:9 Monitoren knapp "nur" 20-30% benötigte Mehrleistung ggü. herkömmlichen 1440p bzw. 1080p Auflösungen, und die verfügbaren Monitore bieten ohnehin meist eine höhere Pixeldichte als die gängigen. Sind also auch sichtbar schärfer, ohne dass ich auf die Skalierung von Windows zurück greifen muss.
Am Fernseher sieht der Average Joe, dass er bei den allermeisten Filmen keine Balken mehr hat, was effektiv zu einem größeren Bild führt. Zumal das auch mit wirklich allen Filmen funktioniert, und man seine Blu-Rays oder DVDs nicht ausmisten muss. Vorhandenes 1080p Material nutzt das Format bereits voll aus.
Alles, was die Kunden sofort sehen, lässt sich erwiesenermaßen besser verkaufen, als Kleinigkeiten oder Eigenschaften, die man ihm erst erklären muss.
Willst du die aktuelle Situation besprechen oder wie eingangs die Zukunft?
- 4K ist doch längst da: Monitore ab 600€, TV-Geräte, BD-Player, Schnittstellen (DP)
- einfaches Upscaling von 1080p-Material, weil 4X (das geht nicht so leicht mit 1440p)
- DVB-T2 kommt voraussichtlich früher als geplant
Klar, wirds Leute geben, die keinen Unterschied sehen, aber es hat ja auch nicht jeder auf FullHD/DVD/BD gewechselt
Ob 4K je das deutsche TV erreicht? Die haben doch schon Probleme mit HD und bringen nur 720p zustande. Sky sendet zumindest in 1080p, aber die Kabelanbieter haben nicht genug Bandbreite oder stellen sich da aus anderen Gründen quer.
Ich finde der TV-Markt ist ein absolut kundenunfreundlicher Markt:
TV-Hersteller, TV-Sender, Kabelanbieter und Boxanbieter - keiner arbeitet gerne mit den anderen zusammen, selbst das EPG ist teilweise nur sichtbar, wenn man die entsprechenden Sender (RTL-Gruppe) einschaltet.
k.A. was das dt. TV anbetrifft. (Bilde mir ein die ÖR wollen mit DVB-T2 auf 1080p gehen). Privatsender: eh wurscht. International gibt's ne Roadmap: (s.u.)
Sehe als Zuspieler zunächst mal BD, PC, Kameras bzw: int'l:
2014: UHD-1 bei 30 Hertz. Nur erhöhte Auflösung, keine Verbesserungen der Bildqualität und Datentiefe. Einsatz: Demo-Sendungen.
Ab 2015: Demo-Sendungen für UHD-1 bei 50/60 Hertz. Erhöhte Datentiefe, kein erweiterter Farbraum. Einsatz: Pay-TV.
Ab 2017: Demo-Sendungen für UHD-1 bei 100/120 Hertz. Erhöhte Datentiefe, erweiterter Farbraum und höherer Kontrast nur auf der Produktionsseite. Bildwandlung im Empfänger.
Ab 2016: Testsendungen in Japan für UHD-2 bei 100/120 Hertz. Regelbetrieb ab 2020 möglich.
das upscaling wird dadurch nicht einfacher, im gegenteil. es sind schließlich noch mehr pixel zu interpolieren. ob die zielauflösung nun ein ganzes vielfaches ist oder nicht, spiel nur für das naive nearestneighbor-verfahren eine rolle.
ist aber eh wayne, da die skalierung in monitoren/tv-geräten ohnehin hardware-implementiert ist.
Ich hatte das, was Du weiter oben geschrieben hast, von der Aussage falsch interpretiert, von daher Schwamm drüber.
Optimal ist doch 27:9 oder irre ich mich?
Keine Ahnung!?
Dachte du hättest da tieferen Einblick, ich fragte wegen dem natürlichen Blickwinkel.
AFAIK gilt: Je breiter desto besser. Peripheres Sehen kann man trainieren. Ich merke durchaus, dass ich deutlich mehr im Augenwinkel wahrnehme, seit dem ich auf breiteren Formaten spiele, als früher.
Ja genau, aber irgendwann ist der Blickwinkel ausgereizt, daher dachte ich an 27:9 als optimales Format. Aber das periphere Sehen und die Kameraführung mit der Handlungszentrierung ist natürlich ein Argument dagegen. 21:9 klingt schon gut.
Also ich fand ja schon Witcher 2 auf der 360 ziemlich schick, und das sollte auf der Next-Gen doch hoffentlich um Längen übertroffen werden können. Wenn der dritte Teil als Spiel so gut wird wie erhofft, ist mir ziemlich egal, ob es jetzt 1080p, 900p oder sogar nur 720p sind.
Sorgen sollten sich lieber viele PC-Spieler machen, denen bei solchen Meldungen der Hochmut ins Gesicht steigt. Denn wenn auf der PS4 inkl. aller Optimierungen gerade so die niedrigen PC-Details laufen, dann wird für einen ziemlich großen Teil der Spieler ein neuer Rechnerkauf anstehen müssen, dessen Preis wohl die Anschaffungskosten jeder Next-Gen-Konsole deutlich übersteigen wird...
So richtig gut optimiert schien mir die Engine noch nie zu sein, da zählte eher brute force Leistung. Was das angeht ist der PC weit vor den Konsolen.
PS4+vernünftiger FullHD werden für mich teurer als den 6 Jahre alten PC in Rente zu schicken.
Wird auf der PS4 gespielt.
Mein PC schafft es zwar bestimmt auch, aber sicher nicht in der Qualität, wie es optimiert auf der Konsole läuft.
Mensch optimieren heisst runterschrauben!
Du bekommst auf der Konsole so oder so einen technisch limitierten Eindruck vom Spiel.
Ich gehe jetzt gar nicht weiter drauf ein, kann dir aber sagen das ich Grafikoptionen auf dem PC nicht leiden kann.
Nach "The Witcher 2", das ich sowohl auf PC (Max Einstellungen), als auch auf Konsole gespielt habe weiß ich, das Teil 3 für mich halt eher ein Spiel für die Konsole ist.
Mein 4 Jahre Alter Rechner ist so Schnell wie ne PS4 Kosten: 500€ :P. (3,3Ghz x4 8GB Ram, GTX570^^)
Witcher 2 lief gut mit 30-50FPS auf Maximum, ok so Firlefanz wie Ubersampling (Hab da eh kein Unterschied gesehen) hat ich aus...
> ...dann wird für einen ziemlich großen Teil der Spieler ein neuer
> Rechnerkauf anstehen müssen, dessen Preis wohl die
> Anschaffungskosten jeder Next-Gen-Konsole deutlich übersteigen
> wird...
Und das wäre warum genau ein Problem...!?
Noch eine Frameraten-News. Irgendwie nimmt das absurge Züge an.
Jup. Inhalte von Spielen zählen anscheinend nicht mehr. Es geht nur noch um virtuelle *******vergleiche bzgl. Auflösung und FPS. Schade, was aus diesem Hobby so langsam wird.
Wir sind halt verwöhnt und the Witcher 3 lebt halt auch gerade von seiner Grafikpracht.
Schon klar und bin auch begeistert vom gesehenen Material. Jedoch ist es mir ziemlich egal. ob eine Dachkante 2-3 Pixel mehr hat. Für mich zählt die Stimmigkeit des Gesamtbildes und das kann auch bei geringerer Auflösung gut gelingen.
Ich hoffe vor allem endlich auf ein für mich interessantes Kampfsystem :-/
Teil 2 hat mich dabei fast soweit gehabt, dass ich die Segel streiche.
Auch noch einmal für Dich:
Auflösung =!= 1080p => Interpolation => Komplettes Bild ist verwaschen.
es gibt auch andere upscaling-Verfahren
Klar. Aber ordentliches Upscaling kostet einerseits auch wieder Performance. Oder man macht es in Hardware. Was verdammt teuer ist. Zumindest, wenn es ordentlich aussehen soll.
Auch der Mischmasch aus Interpoliertem 3D Bild und drüber gelegtem 1080p 2D HUD, wie es viele Spiele auf Konsolen machen, ist eher "Mehhh..." denn brauchbar... Zumindest meiner Meinung nach.
So ist es. Bin es schon Überdrüssig jeden Tag so ne Kack FPS News zu lesen. Und dann immer direkt TOP-NEWS. Scheinbar ist 1080 P das wichtigste bei Spielen ! Das macht selbst eine Gurke zum 9.0 game .
Also, ich hab heute mal mit Wayne gesprochen, ihn interessieren diese News zu Frameraten und FullHD ohne Ende. Haben also schon eine Daseinsberechtigung.
Warum absurd? Es ist relevant. 360 und PS3 waren in etwa gleichwertig, meist sah die 360 Version leicht bessert auch, mal die PS3 Version.
Bei den Nachfolgern sieht es anders aus, MS hat irgendwas grundsätzlich verkackt. Ihre Konsole schafft bei vielen Titeln nicht den 1080p Standard, der bei dem Design der Konsole auch als Grundlage gedient haben muss, Sony hingegen schafft es bei den entsprechenden Cross-Plattform Titeln.
Und 900p, 792p oder 720p sehen jetzt zwar nicht katastrophal aus, der Unterschied ist aber auf einem vernünftigen 1080p Fernseher mit der entsprechenden Größe gut zu sehen...
Und was ist mit der WiiU Fassung?
*Öffnet eine Tüte Popcorn*
Gott ist der Trollversuch schlecht.
Naja, wir Konsoleros werden’s überleben. Wir haben die letzten Jahrhunderte mit schwächerer Grafik gelebt. Warum sollten wir das seit dieser Generation nicht mehr können?
Es gibt schlimmeres. Andere Menschen haben Ebola, leben auf der Krim oder sind Reporter in Syrien.
"Vorsicht abgrundtief Geschmackloser Sarkasmus". Ja, deswegen braucht ihr ja nicht gleich den Kopf zu verlieren.
Kann man Spiele nicht einfach rausbringen und fertig. Diese Technik Gelaber war vielleicht in den 80ern sinnvoll aber heute finde ich es unnötig.
Technikgelaber gabs schon immer. Nur inzwischen entwickelt sich die Technik langsamer und es geht mehr in die Details wie eben Frameraten. Einen Unterschied zwischen 8 und 16 bit konnte man wenigstens noch richtig auswalzen.
wobei bei letzterem kein direkter zusammenhang zur grafik besteht. insofern ist die heutige grafik-diskussion nicht so voller bullshit und pseudo-begriffen wie damals.
Es gibt Leute, die interessieren sich dafür. Ich zum Beispiel.
Ich würde dir fast recht geben, aber leider gibt es a) den Standard 1080p und 60fps den noch immer nicht alle erreichen und b) Techniken die kaum diskutiert werden wie die der KI. Da werden wir noch Jahre drüber reden können, auch wenn kaum einer KI-Techniken kennen dürfte (bei Grafikdiskussionen ist es ja auch oft nur der Vergleich bekannter Hardware und Engines und wenig Detaildiskussion)
Ich schätze mal, das Spiel wird genauso wie Watch Dogs in 900p/792p laufen, aber Hauptsache sie müssen die Texturqualität nicht runterschrauben.
Der The Witcher 2 Port für die Xbox 360 war besser als alles was deutsche Studios in den letzten 10 Jahren auf Konsole zustande gebracht haben, mit Sacred 3 und Risen 3 gibt es ja aktuell wieder zwei Negativbeispiele.
Die Texturqualität ist vor allem eine Speicherfrage, und da sind die Konsolen ja ganz gut ausgestattet.
Wenn man bedenkt, dass der für das gesamte System gilt, ist das auch nicht mehr so viel. 4GiB Karten am PC haben halt 4GB direkt nur für die Grafik. Plus 8GiB+ für den Rest.
Abgesehen davon kannst Du eine Krüppel-APU nicht schneller machen indem Du den Speicher erhöhst. Das gleiche "Problem" haben auch Low-End Grafikkarten, die können mit der Speichermenge meist einfach nichts anfangen, weil sie nicht schnell genug sind.
Wobei Watch Dogs auch nicht gerade gut optimiert war. Infamous lief ja auch in höherer Auflösung und ist wesentlich aufwändiger.
Aber infamous hat doch meines Wissens keine belebte Welt mit Autos, Passanten etc, oder?
Doch hat es, es sind zwar etwas weniger Passanten als teilweise in WD, aber dafür gibt es in Infamous Gefechte mit 30 und mehr Gegnern und ein wesentlich höheres Spieltempo.
"Framerate schlägt Auflösung", also man erreicht 30FPS durch Abstriche bei der Auflösung. Was wäre denn alternativ möglich? 1080p mit Ocarina of Time-esken 14FPS? Oder Standbild in 4K? ;)
Hey, nichts gegen das beste Spiel aller Zeiten! Auf dem 3DS läuft es übrigens mit stabilen 30 fps.
übern emulator sogar mit 60fps.
Ohne zynisch sein zu wollen, ich meine das ganz ernst: Das kommt davon, wenn man als Programmierer aus einer Welt kommt, in der man immer sagen kann "kauft euch einen schnelleren Rechner, dann läuft es super".
Als ich Ende der 90er für den PC ein 2D Spiel entwickelt habe, habe ich und meine Kollegen sehr viel Zeit mit extremen Optimierungen verbracht, damit das Spiel flüssig (60FPS) auf den gängigsten Systemen lief. Selbst die Downloadgröße wurde durch diverse Tricks massiv auf klein getrimmt. Damals wollte die Kunden nicht mehr als 10MB downloaden für eine Demo ;-)
Was nützt es mir, wenn der Kunde unzufrieden ist und ich sagen kann "Ja, hättet ihr nur die richtige Grafikkarte". Solche Optimierungen scheint es heute wohl fast nur noch bei Exklusivtiteln zu geben.
Abwarten. Witcher 2 hat auch alles aus den alten Gammelkonsolen rausgeholt, ich vermute das auch Witcher 3 gut optimiert für die neuen Konsolen erscheint.
Aus ner Mittelklasse-Hardware kann man halt unmöglich graphische Wunder dinge erwarten. Trotzdem denke ich wird die Konsolenversion auch sehr gut aussehen und dort neue Maßstäbe setzen.
Also ich denke mir, dass die Entwickler bei CDProjekt Red schon ordentlich optimieren. Dass dabei dann keine 1080p/60 fps auf den Konsolen rausspringen wundert mich allerdings überhaupt nicht, wenn man die Komplexität des Spiels betrachtet: extrem detaillierte offene (angeblich komplett begehbare) Welt mit enormer Weitsicht und zig gescripteten NPCs.
Eine solche Content-Monster perfekt zu optimieren ist deutlich schwerer als ein eher kleines 2D-Game, an dem viel weniger Leute beteiligt sind, rund zu bekommen. Obendrein ist der PC die lead platform.
Möglich, dass ein Studio wie naughty dog etc. sowas hinbekommt, aber die müssen sich auch nur um eine Version kümmern und kennen die Plattform in und auswendig.
Die NPCs werden aber von der CPU gerechnet, die Grafik auf der GPU. Dazu kommt, dass sie ihre eigene Engine nutzen, d.h. sie haben viel Know How und sie können ihre Engine allein auf ihr Spiel ausrichten. Da ist schon einiges möglich.
Natürlich teilen sich CPU und GPU unterschiedliche Aufgaben. Nur muss eben pro frameupdate im Regelfall der komplette Zyklus durchlaufen werden, d.h. auch die NPC updates.
Je umfangreicher die Berechnungen (CPU+GPU) pro frame desto niedriger die framrate.
Ohne zynisch sein zu wollen, ich meine das ganz ernst: Kauft euch einfach einen PC, wenn ihr ordentliche Auflösungen und Frameraten wollt. Oder lebt mit dem, was euch die Konsolen bieten.
Sollte doch eigentlich bekannt sein, dass der PC einfach stärker ist. Diskussionen darüber sind überflüssig. Man kann die Spiele einfach nicht "endlos" optimieren. Die Dinger sind einfach langsam. Fertig, aus, Amen.
Nene das kannst du so nicht sagen die sind optimiert und damit drölfmal schneller und überhaupt im Laufe der Jahre werden die noch optimierter genutzt so das sich das drölfmal potenziert!
Weil die verbaute Hardware so ein Mysterium ist das man erst ihn Jahrzehntelanger Erfahrungschleife die schon optimierte Programmierung erlernt um dann optimierter als optimiert voll die poplige PC Hardware die bis dahin raus ist (weil die aktuelle an sich ja eh schon schlechter ist als die an sich schon optimierte Konsole ^^) wegoptimiert.
Hihi :)
Da hast Du glaube ich eine sehr optimierte Aussage getroffen :D
Ja mein deutsch ist nicht so gut! Da wäre ein wenig polish und Optimierung noch nötig :-D.
Die müssen 1080p gewährleisten, und selbst wenn dafür die Schatten nicht ganz so schön aussehen. Sonst wird sich das auch in den Verkaufstahlen ausdrücken
Ich frag mich warum es keine Grafikoptionen in Konsolenspielen gibt. 720p/60fps oder 1080p/30fps wären das Minimum.
Weil es so einfach eben nicht ist.
Deswegen haben ein paar Spiele ja genau diese Optionen /facepalm.
Welche denn? So eine Option habe ich bisher noch nie gesehen.
Nenne fünf. Abgesehen von PS4-TLoU fällt mir keines ein, und dort geht es noch nicht mal um die Auflösung sondern nur um die Schatten.
BTW habe ich gesagt, daß es schwierig und nicht daß es unmöglich sei. Ein oder zwei Ausnahmen widersprechen meiner Aussage nicht.
Bemüht euch nicht, der trollt jetzt anonym gegen Konsolen rum. Ignorieren und lieber melden.
Ach ist das einer der hier registrierten Benutzer? Das wird ja immer toller. :-)
Er war registriert.
Weil man so schnell sehen könnte das die Teile nicht genug Saft unter Haube haben XD
Schlechte Werbung wenn bestimmte Settings nicht flüssig laufen würden.
Weil dann aus Konsolen PCs werden. Das Schöne bei Konsolen ist, dass ich mir nicht Gedanken machen muss, was denn jetzt die Optimaleinstellungen für mein System und das Spiel sind. Der Entwickler nimmt mir das ab. Und dem vetraue ich, dass er die Einstellung wählt, die am besten für sein Spiel ist und das Maximum aus dem System herausholt.
Beim PC weiß ich nie, ob das Spiel mit meinen Einstellungen auf meinem System wirklich am besten aussieht und läuft. Da müsste ich 1000 Kombinationen in unterschiedlichen Spielsituationen testen. Diese Arbeit nimmt mir der Entwickler bei Konsolen ab. Deswegen mag ich Konsolen. Und wenn ein Entwickler zum Entschluss kommt, sein Spiel fühle sich auf 720p mit 60fps besser an als auf 1080p mit 30fps, dann finde ich das gut und möchte da nicht dran rumfummeln. Wenn es mit solchen Einstellungen auf Konsole los geht, ist das der Anfang vom Ende der Plattform.
das kann ich so weitgehend unterschreiben. Ein gewissenhaftes Entwicklungsstudio mit ausreichend Zeit für Optimierungen und Tuning wählt in der Regel die Einstellungen, welche den jeweils Verantwortlichen am geeignetsten erscheinen. Die Entwickler kennen i.d.R (wenn die QA ihre Arbeit macht/machen kann) alle Problemzonen und Fallstricke und können so entscheiden, wo man Abstriche macht und wo man noch zugeben kann.
D.h. allerdings nicht, dass es grundsätzlich keine Einstellmöglichkeiten bei Konsolentiteln geben sollte. Im Einzelfall kann sowas schon sinnvoll sein.
vor allem in hinblick auf motion blur und depth of field, was viele überhaupt nicht leiden können. leider wird einem das trotzdem in aller regel zwangsweise aufgedrängt bei konsolenspielen.
Vielleicht um die Sichtweite einzudämmen und so Leistung zu sparen? ;-)
Eine Variante der so viel gelobten "optimierung" für Konsolenversionen.
wenn dann eher um es zu verschleiern. beide effekte kosten schließlich performance und sparen nicht welche ein.
Oder Field of View. Motion Sickness anyone!?
Das ist das erste, was ich in Spielen deaktiviere. Kann ich überhaupt nicht leiden.
Eine Konsole ist nicht mehr als ein normierter PC - einschalten, Spiel auswählen, starten. Da soll man nicht mehr viel Einstellen müssen und das übernimmt der Entwickler anhand der einheitlichen Hardware.
> Und wenn ein Entwickler zum Entschluss kommt, sein Spiel fühle sich
> auf 720p mit 60fps besser an als auf 1080p mit 30fps,...
Soll auch Leute geben, die sich nicht von irgendwelchen Laberköpfen bevormunden lassen. Genug Negativbeispiele gab es dazu ja in den letzten Wochen.
Wenn Du mit der Auswahl zwischen zwei Optionen zudem überfordert bist, dann lass sie doch einfach unangetastet. Fertig.
Weil sie anscheinend schon Probleme haben 30 Bilder hinzubekommen.
Irgendwie tun mir die Entwickler schon etwas leid, da werden Welten entworfen, Storys geschrieben, Charakter entworfen usw. und am Ende wird nur über die Auflösung und Framerate gesprochen ;-)
Ich bin mir sicher das Witcher 3 ein tolles Erlebnis wird egal ob PC oder Konsole.
Zwei Spieler unterhalten sich:
"Wie fandest du das Ende von The Witcher 3?"
"Voll krass, da hatte ich 121 fps!!!"
So einen alten Witz aus den 90er Jahren muss man nun wirklich nicht wieder rauskramen. ;)
Gab es den schon? Mist... :-)
Wenn es nur in Standbildern über den Bildschirm zuckelt, hat man aber nicht wirklich viel davon...
Technik-Diskussionen sind ja grundsätzlich auch ok! Allerdings geht es hier in den entsprechenden Threads selten um Fakten oder interessante Einblicke, sondern in 98% einfach darum, andere Hardware zu dissen. Und das finde ich schlichtweg albern.
1080p ist ohnehin nicht die ideale Auflösung habe ich gehört.
Vor allem nicht auf einem Full-HD-Bildschirm!
Mhm ... kommt das Buch dann in 3 D ?
Weder auf der XBone noch auf der PS4 sind die 1080p/30fps sicher!? Das werde ich mal gespannt weiterverfolgen ^^
Dank dem neuen Xbox-One-Standard darf man also auch auf der PS4 keine besseren Resultate erwarten? Traumhaft... - Kleiner Tipp: Wieso programmiert man nicht erst fuer PC, dann fuer PS4 und dann fuer X1? Dementsprechend haette man auf den ersten beiden Systemen die Performance, die sie beherrschen und auch verdienen. Danke!
Disclaimer: Nein, ich will nicht gegen MS trollen, sondern bin nur realistisch/pragmatisch. Bei PS3 und Xbox360 haette ich das Umgekehrte gesagt, da gewoehnlich die 360 die besseren Resultate brachte. :)
Das ist Quatsch. Das wäre so, als würde ich sagen: "Dank den Konsolen darf ich auf dem PC keine besseren Resultate erwarten." Die PS4 ist technisch nun auch nicht Welten besser als eine Xbox One, ein Highend-PC (und das peilt CD-Project ja an) schlägt allerdings beide Konsolen um Längen. Die "1080p und 60 Frames"-Phase wird nicht lange andauern, da sonst grafisch doch größere Einbußen (ja, auch auf der PS4) hingenommen werden müssen. Ich finde es aber auch krass, wie sehr das jetzt schon gebasht wird. Ich meine, wenn es hinterher mit 900p und 30 FPS läuft ist doch alles super. Ich wette es wird dafür auch auf er Konsole grafische Maßstäbe setzen.
Naja komm, Quatsch ist das ja nun nicht. Es ist ja eine Tatsache, dass Microsoft schon ganz zu Anfang einige Hebel in Bewegung gesetzt hat, um Exklusiv-Deals und Partnerschaften zu etablieren, deren Ziel es war, die Tatsache unter den Tisch zu kehren, dass die X1 schwaecher auf der Brust ist als ihre direkte Konkurrentin. Im Uebrigen haben wir glaube ich aneinander vorbeigeredet, wie mir dein erster Satz oben zeigt. Denn mit dem Darauffolgenden wuerde ich natuerlich im Groben uebereinstimmen. - Ich bin jetzt auch nicht die Grafik/Aufloesungshure, sonst wuerde ich wohl kaum Risen 2 auf PS3 ansehnlich finden, aber dass die Next Gen nicht mehr kann ist schon traurig und irgendwie auch peinlich im Vergleich zum PC, selbst wenn man realistisch ist und weiss, dass Konsolen PCs immer hinterherhinken werden.
mittlerweile. war ja früher auch mal anders, wo eine neue konsolengen erst mal grafisch neue maßstäbe setzte und PC'ler neidisch hingeguckt haben. das hat sich ja erst mit den letzten gens so entwickelt, dass die konsolen nun schon zum release im vergleich veraltet sind.
Ganz wenige Generationen vielleicht sogar nur eine (alles vor PC quasi bis Ende Amiga ^^ kann man ja nicht mitzählen) für ne Pauschalaussage herzunehmen ist schon geil :-D.
ich habe mich mit meiner aussage auf die letzten beiden konsolengens bezogen. und da war es nun mal so, dass diese technisch schon zur veröffentlichung im vergleich technisch veraltet waren. von einer pauschalaussage kann hier nicht die rede sein ;)
Vielleicht hab ich das ein bisschen falsch aufgefasst ^^.
Ich sehe nämlich graphische Masstäbe nur bei der PS1 Generation und da auch nur kurze Zeit. Weil Sony die schon in Entwicklung befundene 3D Chips der Konkurenz hergenommen hat um eine schlechtere Version schneller herauszubringen.
PS2 und XBox 1 waren zu ihrem erscheinen auch schon nicht mehr ein technischer Vorreiter ^^. Ok ausser man nimmt solche trailer wie Killzone für bare Münze ^^. Aber die Qualität haben sie ja dann doch erst auf der PS3 geliefert :-D.
Wie es davor aussah weiss ich ehrlich gesagt gar nicht mehr. Aber da gabs auch so ein PC / Konsolending auch nicht. Aber ich dachte seit dem Ende des Amigas (also mit dem Aufkommen von Soundkarten in PC's ^^) wurden die Masstäbe eher auf dem PC gesetzt.
würde schon sagen, dass noch bis zur PS2 (und davor ohnehin) zumindest zu beginn der jeweiligen konsolengen es immer titel gab die grafisch vor dem lagen, was bis dahin auf dem PC spielbar war.
PS1 ist doch n schönes Beispiel. Kam 95 mit nem rudimentären 3dChip.
Das PS1 Vorzeigespiel Tomb Raider sah auf PC schon ohne 3D karte nicht schlechter aus und mit der Voodoo dann sogar besser.
Und ehrlich gesagt müsste ich jetzt Archive wälzen und Vergleichsvideos anschauen aber mal ehrlich ich kann mich an kein Spiel erinnern das mir als PC'ler die Kinnlade runterklappen lies aus der Ära PS2. Was auch ein Grund war warum ich nicht eine solche kaufte.
nun war tomb raider auch schon release nicht die spitze des grafikolymps. ich denke da zB an titel wie wave race und sowas gabs eben zu dem zeitpunkt aufn pc nicht.
Solche Spiele gabs zwar nicht deswegen haben sie doch trotzdem keine graphischen Masstäbe gesetzt.
Ok im Falle von Wave Race war das bei den Plattformen auch denkbar schwer ^^.
kapier deinen einwand jetzt nicht wirklich. jedenfalls meine ich, dass es bei ganzen konsolengens bis etwa PS2 bzw PS3 stets so war, dass da konsolen erst mal grafisch vorgelegt haben um dann erst innerhalb der gen vom PC überholt worden zu sein. was jetzt eben seit spätestens den letzten beiden gens definitiv nicht mehr der fall ist.
wobei die konsolen damals noch den vorteil hatten, keine hochauflösenden geräte ansprechen zu müssen. insofern war da schon ein performance-vorteil gegeben. während pc'ler ja schon von ihreren röhren-monitoren auflösungen kannten, die man heute als HD bezeichnet.
Also ich bin seit 1984 Computerspieler und seit 1992 Konsolenspieler. Das Master System und das NES haben damalige Heimcomputer alt aussehen lassen, das Mega Drive und das SNES haben damalige (damals schon alte) Heimcomputer und (neue) PCs alt aussehen lassen.
(Wobei der Amiga 1200 das Mega Drive durchaus überholt hat).
Aber dann hat ab ca. 1994 der PC ordentlich losgelegt, Titel wie Wing Commander oder Rebel Assault gab es auf Konsole (zunächst) nicht. Die PS1 hat dann zwar den 3D trennt endgültig losgetreten, konnte aber nichts, was nicht auch der PC mit 2D Karte und höherer Auflösung durch seine schiere CPU Leistung Zustande brachte. Als dann die 3D Karten kamen waren die Konsolen leistungsmäßig eigentlich immer hinterher. Vor allem habe ich auf dem PC seit 1995 schon in 1280x1024 gespielt während auf dem Röhrenfernseher bei den Konsolen ja nie mehr als 640x480 ging.
"Ich bin jetzt auch nicht die Grafik/Aufloesungshure,"
Der war gut. Ich mag Sarkasmus!
Ganz verwegene Verschwörungstheorie: Vielleicht wird gerade von CDPR in Sachen Leistungsversprechen vorgebaut, weil es auch Teil des Vertrages mit Microsoft ist, der schon das Kartenspiel in die CE bringt, dass die PS4-Version nicht mehr können darf als die für Xbox One. ;-)
Statt die 109843984384 News über Auflösung und Framerate würde ich gerne wieder einmal eine Preview zu Witcher 3 lesen. Die letzte hier auf GamersGlobal stammt aus dem Juli 2013.
Aber unter einer guten Preview können sich die Trolle vermutlich nicht so gut austoben.
Auflösung schlägt Inhalte. Traurige Sache das.
Ich fand das 35-min-Video von gestern besser als jede schriftliche Preview.
Solange die Preview auf keiner spielbaren Version basiert hast du da sicher recht.
Will ja net klugscheissern, aber ich glaube, du hast dich um eine News verzaehlt. ;)
Sei still Kind und iss noch ein wenig Plastik :)=
Nein! Nein! Nein! Das kann max. die 90094. News zu 1080p sein!
Auflösung ist auch Inhalt.
Eben. Wen interessiert es, ob das Spiel auf dem PC ein paar Pixel mehr oder weniger darstellt? Mein Bedarf an PC-Spielen ist nach Treiberproblemen, Bugs und andere technische Probleme mehr als gedeckt. Mir fehlen da einfach die Nerven für, Windows ist Qual genug. Immerhin verzichtet Witcher 3 auf Späßchen wie uPlay und Origin.
Eine Preview kostet mehr Zeit als eine News und kann nicht von jedem geschrieben werden.
"Treiberproblemen"
Amd Radeon Kunde?
"Bugs"
Gibs zuhauf auch in Konsolentiteln und das teils sogar exklusiv.
"andere technische Probleme".."Mir fehlen da einfach die Nerven für, Windows ist Qual genug. "
Ein Pc bedarf nunmal Wartung und Pflege.. 2-3 Mal die Woche Virencheck min. 1 gescheite Firewall und einmal im Monat Defrag.
Alle wichtigen Win Updates installieren lassen und alle paar Monate mal den neuesten Nvidia WHQL Treiber draufschmeissen.
Dazu nicht auf dubiosen Websites surfen und den Browser entsprechend absichern.
Ein Pc ist nunmal kein Spielzeug.
Bei einem tollen Auto beschwert sich ja auch keiner das es aufwendig und teuer werden kann wenn die Inspektion ansteht.
Nvidea-Fanboy?
Eher AMD- geschädigt.
und "Nvid[e]ia" ist keine Creme ;-)
"Amd Radeon Kunde?"
Da ist aber auch jemand in der Vergangenheit hängen geblieben, oder? :o
"2-3 Mal die Woche Virencheck min. 1 gescheite Firewall und einmal im Monat Defrag.
Alle wichtigen Win Updates installieren lassen"
Offenbar ja, weil diese Dinge heutzutage alle automatisiert ablaufen können, für die Leute, die sich damit nicht beschäftigen mögen :)
Das Amd "bescheidene" und mit vielen Problemen behaftete Treiber für ihre GPUs veröffentlicht ist wohl kaum ein Ding der Vergangenheit.
Geradezu jeder neue Titel kämpft mit Amd Treiberproblemen.
Wäre aber unklug diese "immer" automatisiert ablaufen zu lassen.
Denn Wartung macht eigentlich nur Sinn wenn der Rechner im Leerlauf ist. Da die Leute aber ihren PC oft nur kurz anschalten um etwas zu arbeiten/spielen und dann wieder ausschalten können diese Automatismen gar nicht erst greifen.
Ich hab seit Ewigkeiten keine Probleme mehr mit Treibern gehabt und habe auch nur noch selten davon gelesen. Daher stammt diese Assoziation soweit ich weiß tatsächlich aus der Vergangenheit.
> Das Amd "bescheidene" und mit vielen Problemen behaftete Treiber für
> ihre GPUs veröffentlicht ist wohl kaum ein Ding der Vergangenheit.
> Geradezu jeder neue Titel kämpft mit Amd Treiberproblemen.
Nicht im Geringsten. Aber die Diskussion ist müssig... Lassen wir das.
Quatsch!
Ich habe bei meinem Desktop seit ewigen Jahren AMD Karten (aber auch NVidia) und nie diese Probleme gehabt. Es gab vor 15 Jahren oder so gelegentlich mal Spiele, die nicht mit AMD oder(!) NVidia Karten vernünftig wollten, weil sie nur für die eine oder andere "optimiert" waren, genau das trifft dann heutzutage noch mal Titel wie eben GTA4 aber das sind Ausnahmen und Schuld ist der Spielehersteller.
Und ich habe auch nie Treiberprobleme gehabt, obwohl ich durchaus ungewöhnliche Settings fahre, schon seit ewigen Jahren zwei Monitore oder Darstellung auch auf TV.
Viel Schlimmer sind die Intel Grafiktreiber, da habe ich ständig Ärger mit.
> Amd Radeon Kunde?
Wahrscheinlich eher nieWieder :>
> Ein Pc ist nunmal kein Spielzeug.
Stimmt. Mehr braucht man eigentlich nicht sagen.
Die Probleme deutet darauf hin, dass das Problem VOR dem Bildschirm sitzt!
Nein, das Problem liegt in der Architektur von Windows. Warum bietet Microsoft denn keinen Modus für Leute an, die sich weniger mit PCs auskennen? Also mit vorinstallierter, automatisierter Treiber-Erkennung, Konfigurationshilfe, voreingestellten Profilen für Büro, Zuhause und Gaming, usw.
Wenn du dich mit allem so gut auskennst, warum malst du nicht einfach eine neue Mona Lisa? Oder sitzt bei dir das Problem etwa vor der Leinwand.
Nicht jeder muss sich mit allem auskennen, denn jeder hat eine andere Spezialisierung in der er sich gut auskennt. Für Leute die sich nicht mit Windows auskennen (wollen) oder schlichtweg nicht die Zeit dazu haben sich damit zu beschäftigen, gibt es Konsolen und für Leute die keine Mona Lisa zeichnen können, gibt es Malen nach Zahlen.
Nur dumm das Windows mittlerweile seit 2 Generationen (7+8) wahrscheinlich auch schon seit XP alle Treiber bei Bedarf selbstständig installiert, ganz automatisch mit den Updates zusammen. Außerdem brauch man heute nur noch Grafikkartentreiber und selbst das macht Windows automatisch. Also deine vermeintlichen Argumente stimmen hinten und vorne net...
Und wie toll das funktioniert!
http://www.winboard.org/software-allgemein/152371-nvidia-treiber-334-89-macht-erhebliche-probleme-bluescreen.html
http://www.heise.de/newsticker/meldung/Berichte-ueber-Probleme-mit-Nvidia-Grafikkartentreiber-320-18-haeufen-sich-1887422.html
http://www.computerbase.de/forum/showthread.php?t=1213177
http://www.gamersglobal.de/news/19330
http://www.tomshardware.de/techsupport/id-128512/ratlos-fehlersuche-ssd-radeon-290.html
http://www.tomshardware.de/techsupport/id-128529/staendiges-einfrieren-pcs-standbilder-verzoegerungen.html
Woher soll ein Laie jetzt bitte wissen, woher seine Probleme rühren? Windows sagt einem nicht Bescheid, wenn es gravierende Treiberprobleme gibt, das arbeitet einfach dumm weiter und stürzt dann ab. Nur weil man selber keine Probleme hat, heißt das nicht dass sie nicht existieren.
Wenn Windows so toll funktionieren würde wie du sagst, dann bräuchten Firmen keinen Administratoren mehr und alle PC-Spezialisten wären auf einen Schlag arbeitslos.
Natürlich funktioniert in so komplexen Bereichen der IT selten was perfekt. Das ist aber nicht auf Windows beschränkt und auch nicht auf PCs. Aber im großen und Ganzen ist die Einrichtung und Nutzung von heutigen PCs so einfach wie noch nie und Windows seit Win7 stabil wie ein stein. Wahrscheinlich ist meine Xbox360 öfter abgestürzt als mein PC in den letzten 10 Jahren.
"Wahrscheinlich ist meine Xbox360 öfter abgestürzt als mein PC in den letzten 10 Jahren."
Einspruch Euer Ehren: Unpassender Vergleich.
Wenn ein Konsolenspiel crasht, wird gerne mal das komplette System mitgenommen und man muß das Gerät neustarten. Wenn unter Windows ein Programm crasht, juckt das ein modernes Windows in der Regel einfach weniger als ein Konsolen OS und das eigentliche System läuft noch weiter, man muß also die Maschine nicht neu starten. Das liegt halt einfach so in der Natur der Konsolenbetriebssysteme, weil diese für komplett andere Dinge ausgelegt sind.
Wenn Du hier also etwas vergleichst, dann nicht welche Geräte Du öfter neu starten mußt, sondern wo Dir die Spiele häufiger crashen, egal ob sie dabei das Betriebssystem mit in den Tod reißen oder nicht.
Und was die Anzahl Crashes angeht kommen Windows Spiele DEUTLICH schlechter weg als Konsolenspiele. Aber ich glaube, das zweifelt wohl auch niemand ernsthaft an, oder?
Es ist da aber jetzt auch nicht Azzis Schuld, dass die Konsolenspiele ihre Geräte gleich mit in den Abgrund reißen? Ich finde den Vergleich schon berechtigt. Die Tatsache, dass es so ist, wie du sagst, macht es eigentlich nur schlimmer, finde ich.
Ich könnte auch damit leben, wenn die Systeme stabiler wären (wobei die PS4 das bisher definitiv ist, wie mir BF4 schon mehrmals meinte, zeigen zu müssen) aber so ist es bei den alten Konsolen halt nicht.
Aber das ist doch keine Entschuldigung. Bei Windows 98 würde auch niemand auf die Idee kommen zu sagen Bluescreens seien da halt normal, das gehöre einfach dazu, das dürfe man nicht mitzählen, da W98 da einfach anders sei.
Die Frage ist doch: Wo crashen die Programme häufiger, auf dem PC oder auf den Konsolen? Antwort: Auf dem PC. Alles andere ist doch jetzt nur eine eine Nebendiskussion.
Azzi ging es nun mal darum, wie oft die Geräte crashen. Wenn du dem entgegnen möchtest, dass Spiele auf dem PC aber häufiger crashen, tu dir keinen Zwang an :D
auch die antwort würde ich jetzt nicht widerspruchslos hinnehmen. auch allgemeine programm-crashes sind sehr selten geworden auf modernen systemen.
Ähm einfach mal nein.
Es sei denn du zählst die ganzen Betas mit rein was an sich ja schon an Pipi Langstrumpf erinnern würde.
Nein, zähle ich natürlich nicht, ich zähle Release Versionen wie zB. BF4 oder Watch Dogs, die zum Release nicht gerade durch Stabilität geglänzt haben.
Und auf der Xbone funktioniert nach nem Biosupdate das Laufwerk nicht mehr. Das sind auch manchmal Fehlerquellen die vom Hersteller herrühren.
Beim PC können es halt verschiedene Bauteile oder Treiber von verschiedenen Herstellern sein.
> Woher soll ein Laie jetzt bitte wissen, woher seine Probleme rühren?
> Windows sagt einem nicht Bescheid, wenn es gravierende
> Treiberprobleme gibt, das arbeitet einfach dumm weiter und stürzt
> dann ab. Nur weil man selber keine Probleme hat, heißt das nicht
> dass sie nicht existieren.
Und die Xbox 360 hat auch klar und deutlich gesagt: "Ich bin kaputt!" statt dem Red Ring of Death...
Ein bisschen weniger Polemik und mehr Ernsthaftigkeit wäre nicht schlecht. Probleme gibt es auf allen Systemen und mit allen Produkten. Wenn Dein Toaster im Arsch ist, schickst Du ihn auch zum Hersteller ein. Dein Auto bringst Du zur Reparatur. Und den PC zum Fachmann oder zum Hersteller, wenn Du ihn selbst nicht reparieren kannst.
> Nein, das Problem liegt in der Architektur von Windows. Warum bietet
> Microsoft denn keinen Modus für Leute an, die sich weniger mit PCs
> auskennen? Also mit vorinstallierter, automatisierter Treiber-
> Erkennung, Konfigurationshilfe, voreingestellten Profilen für Büro,
> Zuhause und Gaming, usw.
Öhhh... ist alles vorhanden!?
Nö. Voreingestellte Profile gibt es nicht. Und wenn doch, dann so gut versteckt, dass der durchschnittliche, nicht-technikaffine PC-User diese nicht findet.
Fürs Netzwerk gibt's die. Und für den Rest wüsste ich ehrlich gesagt nicht, was so ein Profil tun sollte.
Und wo finde ich die?
Die werden dir quasi ins Gesicht geworfen, sobald du einem neuen Netzwerk beitrittst. Dann wählst du eins aus und wirst in Ruhe gelassen.
Ansonsten "Netzwerk- und Freigabecenter"
Finde ich dort nirgends, sorry.
Was für Profile meint ihr?
Meine Soundkarte hat z.b. drei Profile mit Voreinstellungen zwischen denen man wechseln kann: Game, Audio-Erstellung und Unterhaltungsmodus. Mein Monitor hat am OSD etliche Presets u.a. Internet, Text, Film, Spiel ...
Was für Profile sollte ein Windows direkt haben? Ich dachte jeder versierte Nutzer richtet sich seinen Desktop nach der Installation so ein, wie er es möchte und alle nicht so versierten Nutzer leben halt mit den Standard-Voreinstellungen. Das erste was ich nach einer Installation z.B. mache ist "einfachen Mausklick" aktivieren und versteckte Ordner anzeigen lassen, dann die Abstände der Icons auf dem Desktop verringern.
Edit: Mit Netzwerkprofilen meinte er vielleicht Heimnetzwerk, Öffentliches Netzwerk, Firmennetzwerk!?
Es ging eingangs (ab Thomas Barths Beitrag ein ganzes Stück weiter oben) darum, warum Windows selbst keine Profile anbietet, die man bei Bedarf wechseln kann.
Ja, deswegen meine Frage, wo der Sinn darin sein soll? Windows kommt doch mit bestimmten Einstellungen vorkonfiguriert. Wie soll ein Profil für Gaming, Office oder Medien denn aussehen? Funktioniert doch alles von den Voreinstellungen aus.
Für z.B. den Betrieb als Mediencenter am Fernseher gibt es ja den Mendiencenter, was aber eben eine eigenständige Software ist.
Erinnere dich an OS/2 oder Linux-Systeme, in denen du Desktops speichern kannst. Das halte ich zB für sehr sinnvoll. Ebenso das Sperren von Webseiten und Programmen, die nicht ablenken oder plötzlich hervorploppen.
Ich hätte ja schon gerne mehrere Desktops nativ unter Windows. Aber der Rest den du nennst ist doch Einstellungssache der einzelnen Programme und hat mit dem System nichts zu tun.
Der Rest war ein Wunsch von mir an das Betriebsystem: Starte nur das was ich wirklich brauchte. Unter Unix kein Problem, nennen wir es Runlevel bzw. Useraccount ;)
Kannst du unter Windows aber auch. Bzw. startet und beendet Windows nicht benötigte Dienste ohnehin automatisch.
Ja vor allem mit Linux/Unix kommen ^^
Das vordefinierte Gamer oder Multimedia Runlevel will ich mal sehen ^^.
Worin unterscheiden sich die Runlevel standardmässig?
0 - Shutdown
S - Einfacher Benutzer
1 - Eine Variante von S
2 - Netzwerkfreier Betrieb
3 - Netzwerkbetrieb
4 - normalerweise nicht belegt
5 - Reboot (oder war das 6 und 5 noch was mit nem X)
Das was hier gefordert wird muss man sich bei Unix/Linux genauso selbst basteln wie unter Windows.
6. Die Aufteilung ist aber nicht unter allen Linux-Anbietern gleich.
Unter Linux ist doch alles basteln ;)
Unter Solaris gibts glaube sogar 8 die sich auch nicht weiter groß unterscheiden.
Der Punkt ist gerade für Profile nach dem Motto jetzt Spiele ich mal ist nen Nix einfach ein schlechtes Beispiel :-D.
Hey, das ist meine erste und letzte Spieleplattform! :)
PC oder NIX? ^^
*nix
Musst Du nicht mich fragen, ich habe nur die Feststellung getätigt, dass die Voreinstellungen, die Thomas vorgeschlagen hat, nicht vorhanden sind, was von Falcon aber widersprochen wurde.
Ob solche Voreinstellungen Sinn machen - keine Ahnung, ich bin Laie. Da es entsprechende Voreinstellungen aber auch zum Beispiel bei Monitoren gibt, würde ich mal vermuten, dass mit solchen Voreinstellungen die Leistung des Betriebssystems entsprechend des Profils optimiert wird.
Genau das ist ja der Witz, welche Leistungseinstellungen sollte es da geben? Die "Leistungsprofile", die es auch in Windows von Haus aus gibt, machen doch nur für Notebooks Sinn (und selbst da nur eingeschränkt). In der Regel stellt man alles auf "volle Pulle", damit man die Leistung auch hat, wenn man sie benötigt. Denn wenn man sie nicht benötigt regelt sich die Hardware doch von selbst runter. CPU und GPU laufen ja eben nicht ständig mit voller Leistung. Das System regelt das alles also vollautomatisch, da benötigt man keine Profile.
Ja, die meine ich.
Tse, Konsoleros! ;p
Im Netzwerk- und Freigabecenter sind deine bestehenden Verbindungen in einer Art Tabelle aufgelistet. Links Name und "Ort" mit komischen Bildchen, rechts was es für eine Verbindung ist etc.. Der "Ort" ist "Öffentliches Netzwerk", "Arbeitsplatznetzwerk" oder "Heimnetzwerk" und mit einem Klick darauf kannst du ihn umstellen.
Also gibt es doch nicht die Profile, wie sie Thomas Barth genannt hat. Ergo bleibt Falcons Aussage "Alles vorhanden" falsch und mein Hinweis darauf richtig ;)
PS: "Netzwerk- und Freigabecenter" hatte ich übrigens durchaus gefunden :D
Ich habe doch gesagt "Für's Netzwerk gibt's die" und "für den Rest wüsste ich ehrlich gesagt nicht, was so ein Profil tun sollte."
Dann haben wir ganz klassisch aneinander vorbei geredet :)
Gerne wieder ;D
Geile Luzi! So macht das Fun! :-D.
Die Luzi? Also Luzi, der Schrecken der Strasse? ;)
Neee die Rothaarige Sexteufelin ^^
Rrrrrrrrh :>
Freut mich, dass ich zur allgemeinen Erheiterung beitragen konnte^^
Es gibt Netzwerkprofile, es gibt Energieverwaltungsprofile, es gibt Bildschirmprofile und es gibt sogar Hardware-Profile (Letztere habe ich noch nie in meinem Leben benötigt).
Was Du genau "Profilieren" (Hihi ;)) willst, weiß ich aber auch nicht. Bei Desktop-Rechnern ist das meiste davon (Bis auf die Energieverwaltung bspw.) Sinnbefreit, aber auf den meisten Notebooks lassen sich etwa die Monitoranschlüsse via WIN + P durchschalten und für die Energieverwaltung gibt es auch einen Hotkey (Grade entfallen), etc.
Das meiste davon ist sinnvoll, Stichwort Software-Betankung
Ich möchte gar nichts per Profile optimieren :)
Ich habe mich hier nur kurz einklinken wollen, weil Thomas was von Profilen für Gaming, Office etc. geredet hat und die es seiner Meinung nach nicht gäbe. Dem hast Du widersprochen, woraufhin ich lediglich klarstellen wollte, dass es diese Profile seitens Windows als Betriebssystem eben tatsächlich nicht gibt (bzw. ich nicht weiß, wo diese zu finden wären). Mehr wollte ich gar nicht.
Ob das ganze sinnvoll wäre oder nicht steht auf einem ganz anderen Blatt und davon habe ich absolut keinen blassen Schimmer. Als Laie stelle ich aber die Vermutung auf, dass solche Profile in einem Betriebssystem sinnvoll wären, da sie in anderen Bereichen ja auch sinnvoll sind.
Profile bieten aber eben nur feste Voreinstellungen und da kommt Windows eben von Haus aus in einer Standardkonfiguration. Meiner Meinung nach braucht es so etwas spätestens seit Windows 95 nicht mehr. Ansonsten stellt halt jeder Nutzer sein eigenes Profil ein. Und mehr als eines benötigt man ja auch nicht, wenn doch, dann loggt man sich halt als anderer Nutzer ein, wo dann irgendwas (was?) anders eingestellt ist.
Du meinst so wie unter Linux: Geht alles sofort und Abstürze gibt es alle drei Jahre.
Die Konzentration auf das eigene Wissen und Anwendung finde ich auch wichtiger, als zu wissen, in welchem Regkey mein Problem gelöst werden kann.
IT sollte nicht Probleme lösen, sondern neue Wege finden diese zu umgehen und neue Anwendungen und Lösungen kreieren.
Stimmt, das Problem bin ich. Immerhin hat Mick aus Solidarität mit mir auf einen Test zu X:Rebirth verzichtet, ich wäre sonst vor Scham im Boden versunken. ;-)
Und da ich nicht gerade der jüngste bin, weiß ich noch was für Probleme Windows 95, Windows 98 und Windows Vista mir beim zocken bereitet haben. Sorry Konsolen, aber da könnt ihr einfach nicht gegen anstinken.
Mit Linux hab ich übrigens überhaupt keine Probleme, leider gibt es dort aber viel, viel weniger aktuelle Spiele als auf Windows. Ist für Gamer also eine schlechtere Alternative als eine PS4.
Kann man nur unterschreiben. Aber Inhalte und Spielspass zählen heute leider nicht mehr. Der Spieler von heute starrt lieber auf seine FPS Anzeige oder zählt die Pixel von Grashalmen.
Leider wird dieser alberne Technik Krieg von vielen Medien noch angeheizt.
Und warum wird er angeheizt? Weil es Klicks bringt, auch wenn alle genervt sind. Das einzige was wir machen können ist, solche News einfach ignorieren und stattdessen zocken.
Ich bin nicht genervt! Finde es immer wieder amüsant.
1080p ist mein Favorit auf das Unwort des Jahres ...
Einem wie mir, dem Spiele wie das alte UFO auf dem PC immer noch großen Spaß macht, muss so eine Diskussion aber auch auf den Sack gehen.
Wobei ich aber auch verstehen kann, dass sich eine gewissen Anzahl von Leuten an der technischen Leistungsfähigkeit der neuen Konsolen stört.
Spielspaß sollte aber trotz allem im Mittelpunkt stehen.
/Sign
Ach wo ich gerade hier schreibe.
Habe letztens mal wieder Crono Trigger ausgepackt. Ihr wisst schon, eines der besten Rollenspiele aller Zeiten.
Und was ist?! Ich musste mit entsetzen feststellen, dass das Ding keine 1080p hat! Wtf, das Stück Müll rühre ich niemals wieder an..sowas aber auch!
Aber wäre es nicht gleichermassen traurig wenn die Spiele trotz technischem Fortschritt immernoch so aussehen würden wie 1992?
Ich dachte damals als Warcraft 2 raus kam das Spiele in ein paar Jahren die grafische Qualität der Zwischensequenzen besitzen werden und das war auch tatsächlich der Fall . Bei Warcraft 3 dauerte es schon bedeutend länger.
Es stagniert einfach extrem im Bereich Grafik seit knapp 7-8 Jahren.
Das es ebenfalls im Bereich spielerischer Innovation stagniert, bestreite ich auch nicht.
Für mich ist die Grafik an einem Punkt angekommen, wo sie von mir aus bleiben kann und sich nicht mehr extrem weiterentwickeln müßte. Ich persönlich will auch gar keine ultrarealistische Grafik haben, mir sind Spiele lieber, die einen eigenen Stil haben und diesen dann auch konsequent durchziehen. Nehmen wir zB. Dishonored: Sieht toll aus, ist aber alles andere als realistisch.
Mir wäre lieber, wenn die ganzen Resourcen, die in die Technik gesteckt werden, eher wieder in Spieldesign und Gameplay eingesetzt würden. Hübsche Spiele hatten wir jetzt lange genug, ich hätte gerne wieder GUTE Spiele.
Naja genau DAS wird aber schon seit jeher gesagt. "Oh Unreal sieht so realistisch aus, glaube da wird in Zukunft nicht mehr viel gehn, mir reicht das auch." Sowas in der Art durfte man bei jedem neuen Grafikkracher hören, heute lächtelt man müde drüber wenn man sich das heute anschaut. Und genau das gleiche wird in 10 Jahren sein, wenn man mit seiner 3D Brille oder sowas in der Art dasitzt...
Ansonsten brauch auch von meiner Seite ein Spiel keine HighEnd Grafik so lange das Ganze irgendwie stimmig ist. Auch ein WoW oder ein altes 2D Spiel haben noch ihren Charme und stören mich nicht. Was ich allerdings nicht mag sind so Blur-Effekte und schlechte Animationen. Auch Matschtexturen sind unschön.
Volle Zustimmung. Insbesondere im UI-Design könnte sich noch etwas tun, gerade The Witcher 3 mit seiner dauerhaft eingeblendeten und nichtssagenden Minimap zeigt wie es nicht sein sollte.
Also auf Android schon ^^.
Mein Crono Trigger Modul passt einfach nicht in mein Handy rein :-/
Du Konsumverweigerer!
Sqare bietet doch extra günstig solch moderne Spiele im Play/App-Store an! Nur 12,99-16,99 und du bist dabei!
Dabei gibt es sogar für Android SNES Emulatoren. Nur die Steuerung ist halt doof, es sei denn man stöpselt ein Gamepad an.
Auflösung, Gameplay, ... ?
Ist alles wichtig! Wie wichtig, muss jeder für sich selber gewichten. Eine Diskussion, dass das eine wichtiger ist als das andere, verläuft oft in Glaubenskriege. Also immer wichtig, nicht von sich aus auf andere schließen.
Sehe ich genauso. Jeder nach seinem Gusteau.
Was ich dagegen etwas eigenartig finde, wenn Konsoleros plötzlich behaupten, die Auflösung wäre nicht wichtig. Schön und gut. Aber warum dann überhaupt eine neue Konsole kaufen? Die alte hat doch genauso gut funktioniert und liefert genausoviel Spielspaß wie eh und je. Da braucht man doch die neue Konsole für die bessere Grafik - die doch angeblich eh nicht wichtig ist - gar nicht. (Zumindest so lange, bis keine Spiele für die Generation mehr rauskommt)
fremdspracheln ja, aber bitte richtig :^)
Ja, "Gusto"... Was-auch-immer. War schon wieder drei Sätze weiter. Und hatte potentiell Hunger.