The Witcher 3: Nvidia erstellt Grafik- und Tweaking-Guide

PC
Bild von floppi
floppi 34202 EXP - 22 AAA-Gamer,R9,S4,A3,J10
Dieser User unterstützt GG seit sechs Jahren mit einem Abonnement.Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Dieser User hat uns zur Surge Aktion mit einer Spende von 5 Euro unterstützt.Debattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenDieser User hat uns an Weihnachten 2016 mit einer Spende von 100 Euro unterstützt.Silber-Jäger: Hat Stufe 10 der Jäger-Klasse erreicht

19. Mai 2015 - 21:37 — vor 2 Jahren zuletzt aktualisiert
The Witcher 3 - Wild Hunt ab 26,90 € bei Amazon.de kaufen.

Als großes Zugpferd von Nvidia-Grafikkarten (mit Radeons läuft das RPG übrigens auch...) erhält das heute veröffentlichte The Witcher 3 - Wild Hunt (GG-Test) für den PC eine Vorzugsbehandlung des Grafikkarten-Herstellers. In einem ausführlichen Beitrag werden euch die Performance-Kosten sämtlicher Grafikeinstellungen detailliert erklärt und in zahlreichen Screen- und Vergleichsshots erläutert. Die dabei benutzte Hardware dürften allerdings nur die wenigsten von euch ihr Eigen nennen. Zum Einsatz kommt Intels Achtkernprozessor Core i7-5960X@4,4Ghz sowie ein SLI-Verbund aus zwei Nvidia GeForce GTX Titan X, die in Ultra-HD-Auflösung rendern. Dennoch lässt sich anhand der Ergebnisse der generelle Leistungseinbruch respektive Leistungsgewinn für Nvidia-Grafikkarten ungefähr ableiten.

So verliert ihr durch das Nvidia-Hairworks-Feature (voll eingeschaltet) in einem Szenario, in dem vier Wölfe den Hexer angreifen, während sein Pferd Plötze im Hintergrund sichtbar ist, satte 25 Prozent der fps. Dahingegen beträgt der Performance-Verlust bei einem Close-up von Geralts wehender Mähne nur 18 Prozent. Das Abschalten von Antialiasing bringt euch rund 7 Prozent Mehrleistung. Mit ungefähr 1,5 Prozent hat der Bloom-Effekt kaum Auswirkungen. Und sogar nur etwa ein Drittel Frame lässt sich durch Deaktivieren der Chromatischen Aberration gewinnen. 

Ebenfalls mit vielen Screenshots werden Änderungen in der Konfigurationsdatei erläutert, mittels der sehr viel umfangreichere Anpassungen an der Darstellung möglich sind als durchs Grafikmenü. Da eine komplette Auflistung sämtlicher Features den Rahmen dieser News sprengen würde und die Vergleichsshots fehlen würden, verweisen wir auf die in englisch gehaltene Nvidia-Website. Ein Fun-Fact zum Schluss: Nvidia redet in dem Artikel von "relativ geringen Auflösungen wie 1920x1080".

Rapunzel666 12 Trollwächter - 826 - 19. Mai 2015 - 18:40 #

Na ja.. bzgl. 1920x1080 = gering hat nVidia doch irgendwie recht?
Die Auflösung ist zwar wirklich weit verbreitet, aber dennoch, angesichts der nach oben deutlich größeren Möglichkeiten, ist das doch wirklich das untere Ende.

Crizzo 18 Doppel-Voter - 11201 - 19. Mai 2015 - 18:51 #

Naja, da würde ich eher 1680*1050px erwarten. ;)

Pro4you 18 Doppel-Voter - 12684 - 19. Mai 2015 - 19:11 #

Ich dachte auch immer FullHD wäre der Standart für die nächsten 20 Jahre - eben weil sich nicht jeder Haushalt alle 5 Jahre einen neuen Flachbild anschafft.
Doch seit dem ich einen Bildschirm mit höherer Auflösung besitze bin ich doch vom Unterschied von FullHD zu höher echt erstaunt. Selbst mit einer 970 läuft haitworks, Ultra und 2560x1080 sehr flüssig

floppi 22 AAA-Gamer - P - 34202 - 19. Mai 2015 - 19:29 #

Mit der 980, Ultra + Schatten-, Gras- und Detail-Tweaks von Nvidia, ohne Hairworks (noch nicht getestet) läufts auf 3840x2160 auch flüssig. :)

Interessant finde ich, dass mir GeForce Experience alles auf LOW vorschlägt. :D

Rapunzel666 12 Trollwächter - 826 - 19. Mai 2015 - 19:24 #

Ich hielt FullHD (1920x1080) immer schon für einen Rückschritt. 1920x1200 bietet zusätzlich zum Spielen noch einen Mehrwert (zum Arbeiten, oder sonst was). Aber da waren wohl die Panelschnittmöglichkeiten nicht so ideal oder warum auch immer sich 1080 durchgesetzt hat.
Ich hatte mir vor 5 Jahren oder so einen 30" mit 2560x1600 gekauft, den würd ich nicht mehr hergeben, Außer vielleicht für einen 27" mit UHD und > 60 Hz :-)
Hier hätte ich erwartet, dass sich diese Auflösung mehr durchsetzt. Aber wie immer, es kommt anders als gedacht, mit all den UHD-Auflösungen und trotzdem vergleichsweise günstigen Panels.

Der Marian 19 Megatalent - P - 18496 - 19. Mai 2015 - 22:14 #

Volle Zustimmung zu 1920x1200. Gibt's auch meistens als Screenshot-Auflösung in meinen Indie-Checks ;).

Toxe 21 Motivator - P - 29927 - 20. Mai 2015 - 10:03 #

Zum Arbeiten nehme ich auch immer 16:10 und verstehe auch nicht, warum sich das nicht allgemein durchgesetzt hat.

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 20:08 #

Ich finde es auch unverständlich, warum sich 16:10 nicht durchgesetzt hat, bietet eigentlich nur Vorteile. Habe immer gerne mit meinem 16:10 Monitor gearbeitet und gespielt, bis er den Geist aufgegeben hat. Heutzutage ist die Auswahl an 16:10 viel zu gering. :(

Lorin 16 Übertalent - P - 4036 - 20. Mai 2015 - 7:16 #

Stimmt schon. Wer kann sollte sich unbedingt mal einen 5K-iMac anschauen. Das Display ist der Wahnsinn. Nur bis man auf solchen Auflösungen mal mit Mittelklasse-Hardware spielen kann.... immerhin verlieren bei solchen Auflösungen die ganzen AA-Modi etwas an Bedeutung (für ein ruhiges Bild immer noch wichtig)

BriBraMuc 14 Komm-Experte - 2322 - 19. Mai 2015 - 20:10 #

Hmm ich bin recht erstaunt, dass das Spiel auf der höchsten Einstellung flüssig läuft. Trotz gtx 670 und i7 @3,4 und ssd platte.. Oder gerade deswegen, mhhh :-)

nothanks 10 Kommunikator - 541 - 19. Mai 2015 - 22:02 #

Eh klar da 1:1 Konsolenport. Die PC Upgrade-Inhalte kommen wohl wieder per Enhanced Edition später angereist, wie bei The Witcher 1 und 2.

Witcher 2 Enhanced Edition PC und Witcher 3 PS4/X1/PC sehen nahezu ident aus: http://www.neogaf.com/forum/showthread.php?t=1043668

Darauf hin PR Angestellte Hr. Döhla: "gab in der Vergangenheit wirklich einige Spiele, wo die Diskrepanz zwischen Gameplay-Trailer und finaler Grafik gigantisch war. Deshalb habe ich Verständnis dafür, wenn sich Spieler aufgrund dieser negativer Erfahrungen Sorgen machen, dass das auch bei The Witcher 3 zutrifft. (...) Auch wenn die Sorgen unnötig sind. (...) Es geht vor allem um das Gesamtbild, das geht in der aktuellen Diskussion gerne unter. Man kann keinen Screenshot von 2013 mit einem von 2015 vergleichen. Das Spiel hat sich verändert. Direct X hat sich verändert. Es gab 2013 Probleme mit dem Licht, das sah alles überschärft aus. (...) Ich hätte wirklich gerne eine Upgrade-Diskussion. (...) Gefühlt redet gerade keiner von der Story und der unfassbar dichten Atmosphäre. Schade."
http://www.4players.de/4players.php/spielinfonews/Allgemein/33882/2149263/The_Witcher_3_Wild_Hunt-Stellungnahme_von_CD_Projekt_RED_zum_vermeintlichen_Vergleichsvideo_PC_vs_PS4_und_den_Downgrade-Vorwuerfen__Unterschiede_der_Versionen_benannt.html

BriBraMuc 14 Komm-Experte - 2322 - 19. Mai 2015 - 23:10 #

Mir persönlich ist diese Downgradedebatte ja recht wurscht, aber ich muss ehrlich sagen, dass W3 schon ziemlich grandios bei mir ausschaut... Ich stehe oft in der Gegend rum und schau mir nur die Landschaft an, fantastisch. Es muss mir gefallen und das tut es, das ist alles was zählt.

justFaked 16 Übertalent - 4404 - 20. Mai 2015 - 8:16 #

Mach ich auch vergleichsweise oft ;) Und ich spiele sogar "nur" die One-Version.

ElCativo 14 Komm-Experte - 1894 - 20. Mai 2015 - 8:10 #

Sry aber ich habe The Witcher 2 noch Gezockt vor dem 3 Teil und jetzt direkt Danach Witcher 3 die Spiele Unterscheiden sich von der Grafik Qualität Stark auch wenn schon der 2 Teil gut aussah.

bigboulder 13 Koop-Gamer - 1348 - 20. Mai 2015 - 16:09 #

Teil 2 ist grafisch teils völlig überbeleuchtet und bloomig.
Auch ist die Sichtweite und Drawdistance (Stichwort: Blauer Nebel, der sogar in größeren Innenräumen zu finden ist) nicht mit Witcher 3 vergleichbar.

Witcher 2 und seine Level sind zudem dermassen viel kleiner und gesplitteter das ein Vergleich auf technischer ebene vorne und hinten hinkt.

Allerdings sieht W2 für einen so alten Titel immernoch relativ zeitgemäß aus.

nothanks 10 Kommunikator - 541 - 20. Mai 2015 - 20:08 #

"The Witcher 2" oder "The Witcher 2 Enhanced Edition" mit aktiviertem "Über"-Shader-Option ??

Da ist nämlich ein großer Unterschied würde ich mal sagen. Und ich habe Witcher 2 Enhanced Edition und gestern bei einem Freund Witcher 3 gespielt - sieht von der Grafik ziemlich ähnlich aus. Wie auch Risen 3 auf dem selben Grafiklevel sich begibt.

DomKing 18 Doppel-Voter - 9864 - 20. Mai 2015 - 22:43 #

Ich hab Witcher 2 Enhanced mit Uber-Sharder die letzten 4 Tage durchgespielt. Und nun Witcher 3 auf dem PC. Witcher 3 sieht wesentlich besser aus. Auch wenn Witcher 2 natürlich schon gut aussieht.

D43 15 Kenner - 3603 - 19. Mai 2015 - 22:05 #

Erinnert sich noch einer an die Produkt Bilder auf der Rückseite von C&C? Ist dich ein alter Hut...

nothanks 10 Kommunikator - 541 - 19. Mai 2015 - 22:15 #

Ja C&C Teil 3 (1999, nicht "C&C 3"). Aber dennoch ist es nicht in Ordnung.

D43 15 Kenner - 3603 - 19. Mai 2015 - 22:23 #

Ja nicht die feine englische Art aber so schlimm ist es auch nicht und vorbesteller kennen seit Jahrzehnten die Risiken... Zudem kann ich mir nicht vorstellen das es jemandem der es auf dem Schirm hatte jetzt zu hässlich zum spielen wäre.

Es wird nur so gerne genörgelt...

immerwütend 22 AAA-Gamer - P - 31831 - 19. Mai 2015 - 22:14 #

Das sind Probleme...

blobblond 19 Megatalent - 18413 - 20. Mai 2015 - 3:28 #

First World Problems!

Pro4you 18 Doppel-Voter - 12684 - 20. Mai 2015 - 3:49 #

Wo lest ihr denn Probleme? im Grunde äußern alle ihre Erleichterung, dass das Spiel so schön läuft.

Makariel 19 Megatalent - P - 14087 - 19. Mai 2015 - 22:45 #

Ist das eine bezahlte Anzeige von nVidia?

floppi 22 AAA-Gamer - P - 34202 - 19. Mai 2015 - 23:04 #

Bist du ein bezahlter Troll von AMD?

Cat Toaster (unregistriert) 19. Mai 2015 - 23:07 #

Als wenn AMD dafür Geld hätte...

D43 15 Kenner - 3603 - 19. Mai 2015 - 23:10 #

Na klar hätten die dafür Geld, totgeglaubte Leben länger, nvidea bekommt in der Zukunft bestimmt auch wieder eins auf die Nase...

Noodles 22 AAA-Gamer - P - 36144 - 19. Mai 2015 - 23:14 #

Selbst durch den VRAM-Skandal bei der GTX 970 hat Nvidia nicht so wirklich eins auf die Nase bekommen. ;)

D43 15 Kenner - 3603 - 19. Mai 2015 - 23:21 #

Alles Marketing... Was sollen wir uns drum streiten das dem Großteil sowas egal ist und nur angemerkt wird das 3,5 GB reichen? Die gleichen Leute wählen auch die CDU aus Gewohnheit immer wieder, abstimmen per tritt? Nein, bloß kein Stress nicht... :(

Noodles 22 AAA-Gamer - P - 36144 - 19. Mai 2015 - 23:24 #

Ich hab auch eine 970 und wähle nicht immer wieder die CDU aus Gewohnheit. Und nun?

floppi 22 AAA-Gamer - P - 34202 - 19. Mai 2015 - 23:25 #

Nun bist du ein überzeugter CDU-Wähler, der eine 970 hat. :D

Noodles 22 AAA-Gamer - P - 36144 - 19. Mai 2015 - 23:26 #

Das stimmt aber auch nicht. :P

floppi 22 AAA-Gamer - P - 34202 - 19. Mai 2015 - 23:26 #

Das ist aber schade, denk nochmal drüber nach. ;)

Noodles 22 AAA-Gamer - P - 36144 - 19. Mai 2015 - 23:29 #

Ist ja noch ein bisschen hin bis zur nächsten Wahl. ;)

D43 15 Kenner - 3603 - 19. Mai 2015 - 23:59 #

Ihr wisst schon was ich meine... :)

LegendaryAfanc 16 Übertalent - P - 4984 - 19. Mai 2015 - 23:29 #

Man muss den Nvidia Karten aber zu gute halten, das sie schön leise sind, da wäre AMD für mich mal keine Alternative für ein SilentSystem.

D43 15 Kenner - 3603 - 20. Mai 2015 - 0:00 #

Ja klar aber da kann man auch noch einiges machen wenn man Lust, Geld und Zeit hat.

Ganesh 16 Übertalent - 5024 - 20. Mai 2015 - 7:05 #

Sorry, das ist totaler Quatsch. Meine (und zig andere) 290 ist lange Zeit unhörbar. Wenn die Lüfter wirklich ranmüssen, hört man jede Grafikkarte aus dem Gehäuse raus...

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 8:28 #

Allein der direkte Vergleich der zwei Konkurrenten 290X und GTX980 zeigt von der Leistungsaufnahme, dass die AMD schwerer zu kühlen ist, sie hat ein TDP von 250 Watt, während sich die 980 mit 180 Watt begnügt. In einem Praxistest zweier Karten ergibt sich für die 980 eine etwa 17% geringere Leistungsaufnahme bei 17% Mehrleistung. (http://ht4u.net/reviews/2015/watt_vs_frames_amd_r9_290x_und_nvidia_gtx_980_im_effizienztest/)

Meine 980 beispielsweise bleibt auch unter Last nahezu unhörbar. Im 2D-Betrieb sind die Lüfter aus, unter Volllast begnügen sie sich mit 20-50% Lüfterdrehzahl. Man hört also nicht jede Grafikkarte aus dem Gehäuse raus, nämlich dann, wenn die Lüfter eben nicht ranmüssen. Was bei 180 Watt Heizleistung nun mal viel seltener bis gar nicht der Fall ist, als bei 250 Watt Heizleistung.

Alleine daher stimmt die pauschale Aussage, dass AMD-Karten lauter sind als die Pendants von Nvidia. Ausnahmen, insbesondere mit speziellen Kühllösungen, gibt es selbstverständlich immer.

Ganesh 16 Übertalent - 5024 - 20. Mai 2015 - 11:22 #

"Man hört also nicht jede Grafikkarte aus dem Gehäuse raus, nämlich dann, wenn die Lüfter eben nicht ranmüssen."
Ist schon klar. Ich hab ja auch nicht bestritten, dass Nvidia-Karten momentan effizienter sind und deshalb eher für den leisen Gebrauch geeignet sind. Vor allem hat Nvidia es endlich auch mal geschafft, ein gutes Preis-Leistungsverhältnis hinzugekommen, was sie momentan in bestimmten Preisregionen geradezu zwingend macht.

Man sollte sich immer nur fragen, ob man mit solchen pauschalen Aussagen, die dann ebenso wie meine Ausführungen auf speziellen Designs beruhen (s.u. ASUS) vorsichtiger sein. Zumal viele ohnehin nur das Topfeld im Blick haben. Oder unbegrenztes Geld voraussetzen. Oder, oder, oder.

Jadiger 16 Übertalent - 5331 - 20. Mai 2015 - 14:45 #

Das ist wohl ein Witz ich hatte selbst eine 290 und hab mehre Kühler drauf gehabt. Unhörbar ist die Karte auf gar keinen Fall, der unterschied zwischen meiner jetzigen und meiner Vorgänger Karte war riesig in dem Punkt. Vorher hatte ich eine GTX770 und jetzt die 970 und beide sind wesentlich leiser mit einer 970 kannst die 290 überhaupt nicht vergleichen.

D43 15 Kenner - 3603 - 20. Mai 2015 - 16:02 #

Wieviel Grafikkarten kaufst du denn so im Jahr??

justFaked 16 Übertalent - 4404 - 20. Mai 2015 - 8:14 #

Es kommt auch stark auf den Boardpartner an. Aus eigener Erfahrung kann ich die R9 280x von Gigabyte mit der R9 280 von Asus vergleichen. Die Gigabyte-Karte dreht die Lüfter schnell sehr hoch auf und ist dementsprechend schnell sehr laut. Die Asuskarte lässt bis ~70°C die Lüfter auf <25% drehen und ist sehr lange sehr leise. Bei nVidia und deren Boardpartnern werden sich siche rauch solche Unterschiede finden lassen.

Ganesh 16 Übertalent - 5024 - 20. Mai 2015 - 8:22 #

Genauso ist es.

LegendaryAfanc 16 Übertalent - P - 4984 - 20. Mai 2015 - 10:55 #

Asus GTX 970 unter 2D 0,3 Sone unter 3D 0,4 Sone. PC Games Hardware hat das getestet. Und jetzt zeig mir mal ne AMD Karte die Leistungsmässig mithalten kann, und ähnlich leise ist. Aber ich rede ja nur Quatsch...

Ganesh 16 Übertalent - 5024 - 20. Mai 2015 - 11:13 #

Du hast eine pauschale Aussage getroffen, dass AMD-Karten generell für leise Computer nicht geeignet sind. Und in dieser Pauschalität ist es nun mal Quatsch. Dass die aktuelle Generation (vor allem aber die 970) sehr effizient und damit gut geeignet für den Anwendungszweck ist, habe ich ja gar nicht bestritten.

Jadiger 16 Übertalent - 5331 - 20. Mai 2015 - 14:36 #

Aber wenn eine GTX970 in einem 4Gb Benchmark trotzdem schneller ist wie eine 290x reichen sie dann nicht. Den die KArte hat 4Gb bindet nur die 512 Mb langsamer an was kein großer Nachteil sein muss. Es ist sogar schwer Spiele zu finden die in 4K 4Gb belegen können und wenn es solche Benchmarks sind dann sind alle Karte zu langsam dafür.

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 15:21 #

Oh, das ist gar nicht so schwer. The Witcher 3 belegt in 4K-Auflösung mit vollen Details satte 8GB Speicher bei einer Titan X.

Noodles 22 AAA-Gamer - P - 36144 - 20. Mai 2015 - 16:08 #

Ist wohl auch die einzige Karte, die das dann auch flüssig darstellen könnte. Eine 970 würde bei 4K und Ultra-Details in die Knie gehen, da ist dann auch der langsam angebundene Speicher egal. ;) Ich denke, wer in 4K mit hohen Details flüssig spielen will, kauft sich keine 970. Blöd wird es erst dann, wenn der langsam angebundene Speicher der 970 schon in Auflösungen wie FullHD spürbar wird.

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 16:54 #

Meine 980 kanns auch flüssig darstellen, ohne Hairworks und AA. Die 4GB Grafikspeicher sind halt dauerbefüllt. :D

Cat Toaster (unregistriert) 20. Mai 2015 - 19:39 #

Welche Einstellungen gibt es da denn noch außerhalb der Menüs? Ich komme auf kaum 2GB genutzten Speicher.

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 19:44 #

Bei 4K-Auflösung? Wie erwähnt, meine 980 genehmigt sich fast die vollen 4GB.

Wie in der News steht, lassen sich per ini-Datei noch viele Einstellungen ändern. Die 8GB Grafikspeicher habe ich gestern in irgendeinem Technikvideo gesehen, ich glaube von der PCGamesHardware, die das mit GPU-Z ausgelesen hat. Finde es leider nicht mehr.

Cat Toaster (unregistriert) 20. Mai 2015 - 20:34 #

Nein, 3440x1440, alles auf "Höchste" außer GameWorks. Auch wenn da noch 3MP fehlen zu UHD, sind 2GB genutzter Speicher vergleichsweise schon verdammt harmlos letzthin.

Aber klar, über INI-Tweaks kann das natürlich angehen. Da werde ich gleich mal recherchieren:

http://www.incgamers.com/2015/05/the-witcher-3-pc-config-ini-tweaks-are-plentiful-demanding

Danke, das ist doch was für den Onkel! Nichts ist nerviger als ungenutzte vorhandene Ressourcen!

Makariel 19 Megatalent - P - 14087 - 20. Mai 2015 - 16:01 #

Bist du ein bezahlter Troll von nVidia?

Zuerst kam die nVidia-Grafikkarten-Empfehlungsnews
http://www.gamersglobal.de/news/100076/the-witcher-3-pc-nvidias-grafikkarten-empfehlungen

...und nu Teil zwei der kauft-nVidia-GPU-Newsreihe. Ich dachte wenn man ein Abo auf GG hat muss man sich Werbung nicht ansehen. Hab isch misch wohl geirrt.

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 17:01 #

Völliger Blödsinn, die News weißt auf die Einstellungen des Spiels sowie ini-Tweaks hin, daß gilt so ähnlich natürlich auch für AMD-Karten. Hätte sich Coca-Cola die Mühe gemacht und ich hätte die News verfasst, hätte ich wohl Werbung dafür gemacht Coca-Cola zu kaufen oder wie?

Aber mit deinem letzten Satz hast du Recht, da nahezu jede News Werbung ist. Das nun aber auch bei jeder News entsprechend zu kommentieren ist hochgradig lächerlich.

Makariel 19 Megatalent - P - 14087 - 20. Mai 2015 - 17:46 #

Bei jeder News? Das ist das erste mal das ich es kommentiere, und es gibt "News" wo der Neuheitsgehalt nunmal fragwürdig ist. Und Coca Cola hat nunmal nicht Witcher 3 als Werbefläche für ihre aktuelle Grafikkarten verwendet (zumindest wär mir nicht bekannt das Fanta mit 4 liter Rahm und Witcher 3 geliefert käme). Spiele-News sollten doch hoffentlich mehr sein als Pressemitteilungen wiederzukauen, oder? Oder ist man wirklich ein "AMD Troll" wenn man findet das GPU-Einstellungen keine "Nachrichten" sind?
p.s. und bevor wer fragt: tweaks für AMD Karten halte ich genausowenig für News.

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 18:08 #

Wenns dich nicht interessiert, klicks nicht an. Ist in der Headline klar ersichtlich um was es geht. Es gibt genug Leser, die gerne Ihre Grafik aufhübschen und die es interessiert, was welche Grafikeinstellung bewirkt. Soviel Toleranz solltest du aufbringen gegenüber anderen Spielern, auch wenn es dich nicht interessiert.

Dass du die von mir verfasste News als "wiederkauen einer Pressemitteilung" erachtest, erachte ich wiederum fast als Beleidigung. Nicht nur, dass es keine Pressemitteilung zu dem Thema gibt, nein, es wird auch nichts wiedergekaut. Im Gegenteil habe ich mir den kompletten Beitrag auf Englisch durchgelesen, interessante Details hier auf deutsch gekürzt wiedergegeben und auf den kompletten Beitrag mit vielen interessanten Bildern verwiesen.

LegendaryAfanc 16 Übertalent - P - 4984 - 19. Mai 2015 - 22:46 #

Nvidia redet von geringen Auflösungen weil sie sonst ihre HighEnd Karten nicht verkaufen könnten. Für FullHd braucht man in 95% der Spiele keine Titan Karte oder GTX 980, da reicht meistens schon eine gtx 750....

Ich denke das die nächsten Jahre für PC Spieler alles Richtung 4k gehen wird. Die Konsolen entwickeln sich Hardwareseitig nicht weiter, und so bleiben auch die Spiele auf Konsolenniveau, wie man bei Watch Dogs und Witcher 3 gesehen hat. Die einzige Möglichkeit für Nvidia ist die PCler Richtung 4K zu locken. Sonst reicht in 2-3 Jahren ne 100 € Grafikkarte um alles auf max in FullHD zu spielen.

D43 15 Kenner - 3603 - 19. Mai 2015 - 22:53 #

Manchen Menschen ist ein vll 10% schöneres Spiel nunmal Viel Geld wert, auch wenn ich es nicht verstehen oder großartig erkennen kann.

Wenn jmd seine Maschine im sli mit Titans betreiben will wird er schon seine Prioritäten gesetzt haben, es ist nunmal Ein Hobby und sogar mit so einer Maschine noch recht billiges wenn ich mir überlege das ein paar Bogen wurfarme bei mir auch mit 800 Euro zu Buche schlagen.

LegendaryAfanc 16 Übertalent - P - 4984 - 19. Mai 2015 - 22:59 #

Es geht hier nicht um die Enthusiasten, es geht eher darum, das niemand mehr wirklich die Leistung einer HighEnd Karte mehr gebrauchen wird um in FullHD zu spielen. Da reicht dann eine Karte die 200€ oder weniger kostet.

D43 15 Kenner - 3603 - 19. Mai 2015 - 23:00 #

Natürlich oder eben gar eine Konsole

jeef 12 Trollwächter - 890 - 20. Mai 2015 - 4:47 #

Es haben schon immer Karten zwischen 120-200€ gereicht. Der Zug ist schon lange lange abgefahren ^^

Jadiger 16 Übertalent - 5331 - 20. Mai 2015 - 14:46 #

schon immer ganz bestimmt nicht seit der letzen Konsolen Gen eher.

jeef 12 Trollwächter - 890 - 20. Mai 2015 - 19:22 #

Schon immer heißt für mich seitdem Zeitpunkt als FullHD sich als Standard eingegliedert hat also ~2006/07 Karten zudem Zeitpunkt HD4850
~150Euro oder 8800GT ~100-120€ waren völlig ausreichend,diese sind sogar heute recht gut dabei. Für jedes darauf folgende Jahr gabs es neue Karten in den Preisklassen die die "aktuell" benötigte Leistung erbrachten, als schon immer ;) davor hat niemanden HD interessiert da war noch die CRT-Äre die erst 2004 bis 07 langsam auslief.
Meinst was anderes reden wir aneinander vorbei ;o

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 19:41 #

FullHD als Standard?
Bis 2012 war die meistgenutzte Auflösung 1024x768, seitdem wurde sie abgelöst von 1366x768.

https://webmagazin.de/web/die-top-10-monitorauflosungen-2014-317000

Allerdings beinhaltet die Statistik alle PC, Laptop und Konsolen.

D43 15 Kenner - 3603 - 20. Mai 2015 - 19:58 #

Vll hätte er Spieler Standard schreiben sollen.
Deine Liste umfasst wie du selbst angemerkt hast natürlich Vorallem Bürobedarf

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 20:12 #

Eine entsprechende Statistik wäre interessant, konnte leider auf die schnelle nichts finden. Ich bin mir nämlich nicht sicher, ob sich auch im Gaming bereits FullHD weltweit als meistgenutzte Auflösung etabliert hat. Ich tippe da eher auf 1680x1050 oder gar 1280x720.

Noodles 22 AAA-Gamer - P - 36144 - 20. Mai 2015 - 20:08 #

Wenn man nur die Spieler betrachtet, kommt es wohl hin. Laut Steam-Statistik ist mit ca. 35 % FullHD die meistgenutzte Auflösung. Wobei 1366x768 mit ca. 26 % auf Platz 2 folgt.

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 20:13 #

Ah danke, daran habe ich gar nicht gedacht. Gibt's da nen Link zu?

jeef 12 Trollwächter - 890 - 20. Mai 2015 - 20:20 #

Es geht ja nur um Spiele und Grafikkarten hier und so war das von mir auch gemeint das man immer alles ins kleinste ausführen muss bissel mitdenken :P

1366x768 ist die standard oder sagen wir besser gängige Auflösung für Laptops und Büro Monitore 15-17" - Ist also völlige irrelevant für die Statistik (auch Laptop Gamer interessieren hier nicht :P auch wenn ein extrem großer Prozentsatz damit am zocken ist)

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 20:21 #

Ich hab das schon richtig verstanden, deshalb habe ich direkt darauf hingewiesen, dass in der Statistik sämtliche Rechner/Laptop + Konsolen aufgeführt sind. ;)

jeef 12 Trollwächter - 890 - 20. Mai 2015 - 20:35 #

:P
Auf Steam kann man das schön nachschlagen
http://store.steampowered.com/hwsurvey
"Primary Display Resolution" lässt sich ausklappen. Kann man auch sehr schön erkennen wieso Auflösung xy yx % hat ;) wenn man ein bisschen darüber nachdenkt. Das Einzige wo ich recht erstaunt bin, ist das die 4:3/5:4 Auflösungen doch mittlerweile so schwach vertreten sind als ich gedacht hätte. Da die Stats ja weltweit sind und Röhenmonitore doch noch extrem verbreitet sind, wäre ich von viel mehr ausgegangen

maddccat 18 Doppel-Voter - 11628 - 19. Mai 2015 - 23:43 #

Mir würde es schon reichen, wenn es nicht abschmieren würde. ;)

neone 15 Kenner - P - 3158 - 20. Mai 2015 - 0:04 #

Hatte ich auch, aber seitdem ich von maximal 60 fps auf unendlich umgestellt habe läuft es.

maddccat 18 Doppel-Voter - 11628 - 21. Mai 2015 - 13:05 #

Danke, werde später mal testen, ob das bei meinem Inventory-Freeze hilft.

Darth Spengler 18 Doppel-Voter - 9291 - 20. Mai 2015 - 1:44 #

Ich muss sagen The Witcher ist sehr Hardware schonend. Ich habe keine wirklich gute Grafikkarte und nur 4 GB Ram, trotzdem läuft es ohne ruckler. Das war meine Befürchtung die sich aber nicht erfüllt hat.

Habe jetzt ca. 20 Stunden gespielt, und bis jetzt ist es wirklich großartig. Diese dichte Atmosphäre ist Wahnsinn.

Renraven 14 Komm-Experte - P - 2230 - 20. Mai 2015 - 8:56 #

Bin super zufrieden, hätte nicht gedacht dass es bei mir so gut läuft.

1440p auf high mit ner 780ti durchweg über 40fps. (4k hat egal auf welchen Presets leider ~20fps)

"minimum CPU" find ich auch übertieben, mein 2500k (3.3ghz) läuft nichmal annähernd auf 100% und Witcher brauch auch kaum mehr als 2GB, echt toll optimiert :)

D43 15 Kenner - 3603 - 20. Mai 2015 - 10:49 #

Auf meinem p303 mit gtx 765m läuft es flüssig mit einen Mix aus Mittel und hoch, hätte ich auch nicht erwartet aber erfreut mich ;)

Noodles 22 AAA-Gamer - P - 36144 - 20. Mai 2015 - 13:59 #

Ja, sehr CPU-lastig ist das Spiel wirklich nicht. Meinem alten Phenom II X4 955 steht eine GTX 970 zur Seite und das Spiel läuft auf Ultra ohne Hairworks absolut flüssig. :)

bigboulder 13 Koop-Gamer - 1348 - 20. Mai 2015 - 16:24 #

Ich habe bis auf die Schatten und die Bevölkerungsdichte (hoch) alles auf sehr hoch (hairwworks aus) und SSAO und um die 40-60 FPS je nach Intensität.

Ganz selten dropped es unter die 40 FPS geht dann so bis 38 runter.
Alles mehr als vertretbar für das was da auf den Bildschirm "gezaubert" wird.

GTX 770 Phantom 2G (neuester Treiber)
Core I7 4770 k 3,5 GHZ
16 GB RAM.

Merkwürdig ist allerdings das ich entgegen vieler anderer keine besseren FPS in GTA 5 erreiche. Dort scheint die Performance gerade beim Fliegen eher schlechter geworden zu sein.

Die Erfahrungsberichte zur Performance von W3 unterscheiden sich allerdings teilweise erheblich. Manche können mit einer 780 Ti auf Sehr hoch kaum die 30 FPS knacken während bei anderen (wie mir) das Spiel sehr gut im Rahmen liegt.

Es kann wohl an dem nicht ganz unproblematischen Vorgängertreiber für GTA5 zu tun haben.. irgendein Streaming-Dienst wurde dort wohl bei manchen aktiviert und lässt sich nicht mehr abschalten, was bis zu 20% Leistung fressen soll.

Renraven 14 Komm-Experte - P - 2230 - 20. Mai 2015 - 17:06 #

Ich hatte auch den GameReady Treiber für GTA und das lief selbst auf 4K auf max mit ner 780ti (bis auf advanced options natürlich), generell hab ich das Gefühl dass Witcher besser optimiert ist, bei GTA hatte ich immer wieder Slowdowns egal auf welchem Detail.
Übrigens, hab grad HBAO aktiviert und macht kaum nen negativen Unterschied, sieht bei mancher Beleuchtung sogar nochn bisschen besser aus ^^

Zottel 16 Übertalent - 4312 - 20. Mai 2015 - 21:48 #

weiß jemand, wo man in den Configfiles die Einstellung für die Auflösung findet?

floppi 22 AAA-Gamer - P - 34202 - 20. Mai 2015 - 23:01 #

...\Dokumente\The Witcher 3\user.settings
Dort unter Resolution in Zeile 12.

Zottel 16 Übertalent - 4312 - 21. Mai 2015 - 0:08 #

Danke, aber die Einstellung wird bei mir wieder zurück gesetzt, sobald ich das Spiel starte.

Nagrach 14 Komm-Experte - 2288 - 21. Mai 2015 - 0:14 #

ICh finds gerade schade das ich mein Speedlink Gamepad nicht zum laufen bekomme, auch nicht über einen X360 Emulator... hmmmm

Zottel 16 Übertalent - 4312 - 21. Mai 2015 - 7:15 #

Bei sowas hilft eigentlich immer das Tool Xpadder oder JoytoKey

Nagrach 14 Komm-Experte - 2288 - 21. Mai 2015 - 9:32 #

Die kannte ich noch nicht, werd ich mal testen, vielen dank :). Dann noch schauen ob SweetFx wirklich funktioniert...

Renraven 14 Komm-Experte - P - 2230 - 21. Mai 2015 - 7:48 #

Falls es wen interessiert, läuft auch auf WIndows 10 wie ne 1 ^^ In meinem Fall auf high/ultra in FHD mit ner 880M

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)