The Witcher 3: AMD wirft Nvidia Performance-Sabotage vor

PC XOne PS4
Bild von Denis Michel
Denis Michel 119525 EXP - Freier Redakteur,R10,S1,C1,A8,J10
Platin-Gamer: Hat den sehr hohen GamersGlobal-Rang 25 erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtIdol der Massen: Hat mindestens 10.000 Kudos bekommenExtrem-Schreiber: Hat mindestens 1000 News geschriebenTop-News-Meister: Hat mindestens 500 Top-News geschriebenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreichtBronze-Jäger: Hat Stufe 5 der Jäger-Klasse erreichtBronze-Archivar: Hat Stufe 5 der Archivar-Klasse erreichtLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Reporter: Hat Stufe 6 der Reporter-Klasse erreichtDiskutierer: Hat 1000 EXP durch Comments erhalten

22. Mai 2015 - 18:04 — vor 1 Jahr zuletzt aktualisiert
The Witcher 3 - Wild Hunt ab 38,95 € bei Amazon.de kaufen.

Die Schlammschlacht zwischen AMD und Nvidia geht in die nächste Runde. Nachdem es bereits bei Project Cars (GG-Test: 9.0) wegen Leistungseinbrüchen bei AMD-Karten zu einem verbalen Schlagabtausch zwischen den beiden Chipherstellern kam, beschuldigt AMD seinen Konkurrenten nun auch, mit Gameworks die Performance der AMD-Karten bei The Witcher 3 - Wild Hunt (GG-Test) sabotiert zu haben. So sinkt die Bildrate auf AMD-Systemen mit eingeschalteten Hairworks stellenweise um mehr als 50 Prozent. Laut AMD gäbe es dieses Problem nicht, wenn Nvidia den Gameworks-Quellcode freigeben würde, so dass dieser auch für AMD-Karten optimiert werden kann.

Nvidias Antwort ließ nicht lange auf sich warten. Laut Gameworks PR Brian Burke biete Nvidia den Quellcode jedem Entwickler an, der bereit ist, für die entsprechende Lizenz zu zahlen und man könne diesen nicht einfach an Leute ohne Lizenz verschenken. Wie er zudem anmerkte, verbessere Gameworks lediglich die visuelle Qualität für Besitzer der Geforce-Karten und beeinträchtige in keiner Weise die Leistung konkurrierender Hardware. Nach Ansicht von Burke könnte es sich hierbei eher um ein Ressourcen-Problem handeln. Nvidia habe viel Manpower und technische Ressourcen investiert, um The Witcher 3 für eigene Kunden noch besser zu machen, was auch AMD freistand, denn man halte die Entwickler vertraglich nicht davon ab, mit anderen Herstellern zusammenzuarbeiten.

Später meldete sich auch AMDs Chief-Gaming-Scientist Richard Huddy zu Wort und gab an, dass Nvidias Behauptung, Entwickler mit Lizenz würden Zugang zum Gamework-Quellcode erhalten, nicht der Wahrheit entspricht. Er selbst habe mit CD Projekt telefoniert und erfahren, dass das Team keinen Zugriff auf den Code hatte. Huddys Aussage deckt sich mit den Gerüchten, nach denen die Entwickler praktisch eine Blackbox ins eigene Spiel integrieren, ohne den Inhalt selbst beeinflussen zu können.

In Bezug auf den Performance-Verlust bei The Witcher 3 sagte Huddy: Man habe mit CD Projekt von Anfang an zusammengearbeitet und sie stets mit detailliertem Feedback versorgt. Rund zwei Monate vor dem Release tauchte dann der Gameworks-Code mit Hairworks auf und habe die Performance der AMD-Karten komplett sabotiert. „Es lief alles gut und dann zerstörte der Code unsere Performance, so als ob er nur zu diesem Zweck implementiert wurde“, so Huddy.

Auf die Frage, wieso AMD nicht die Entwickler darum bat, die hauseigene Technology TressFX ins Spiel zu integrieren, antwortete er, dass man danach gefragt hätte. Das Studio hätte jedoch gesagt, dass es dafür schon zu spät wäre. Es bleibt abzuwarten, wie sich die Sache weiterentwickelt. Dass Nvidia seine teuer entwickelten Technologien zukünftig an AMD verschenkt, dürfte aber eher unwahrscheinlich sein. Ein neuer Grafiktreiber, den AMD noch diese Woche veröffentlichen wollte und der die Performance in The Witcher 3 - Wild Hunt verbessern könnte, lässt noch immer auf sich warten.

BriBraMuc 14 Komm-Experte - 2322 - 22. Mai 2015 - 18:11 #

Ist schon gut vorstellbar, aber wer weiss schon was wirklich wahr ist...

ChuckBROOZeG 19 Megatalent - 18947 - 22. Mai 2015 - 18:16 #

Ja genau und die AMD Hairdingsbumslösung bei Tomb Raider lief auf allen nVidia Karten natürlich gleichschnell ^^.

Denis Michel Freier Redakteur - 119525 - 22. Mai 2015 - 18:19 #

Erinnere mich nicht daran. Meine damalige GTX 570 hatte ganz schön dran zu knabbern.^^

ChuckBROOZeG 19 Megatalent - 18947 - 22. Mai 2015 - 18:26 #

Du sollst mich nicht am editieren hindern (heilige Regel ... hindere nicht den Chuck eins11) ... PÖSER REDI der mit ^^ auf ^^ antwortet und anscheinend auch noch plöde Ironie versteht :-D.

ach ja ich wollte noch hinten dran schreiben

Immer wieder Kindergarten.
Die Tatsachen scheinen so zu sein das nVidia einen Haufen Geld in die Spiele steckt was AMD nicht macht. Und das nVidia dies macht damit bei entsprechender Nutzung der eingebauten Features es auf der eigenen Hardware besser läuft sollte verständlich sein. Niemand hindert daran AMD das gleiche zu tun. Was sie ja anscheinend schon einmal gemacht hatten ^^.

Was aber wieder auffällt. nVidia lügt gerne ^^. Das sie sagen Quellcode geht an Entwickler und machen es nicht (wobei diese Aussage von AMD kommt und daher von neutraler Seite noch zu bestätigen ist) ist schon arm. Andererseits hat das AMD bei Mantle ja auch gemacht :-D. Also nVidia ausgebremst und den versprochenen Quellcode nicht veröffentlicht ^^.

Punisher 19 Megatalent - P - 14439 - 22. Mai 2015 - 18:50 #

AMD sagt, wer die entsprechende Kohle in die Hand nimmt bekommt den Quellcode. CD Project sagt, sie hatten den Quellcode nicht.

Heisst das jetzt automatisch, nVidia lügt, oder könnte es auch heissen "CD Project hat eine günstigere Lizenz gekauft"?

ChuckBROOZeG 19 Megatalent - 18947 - 22. Mai 2015 - 19:24 #

Ich hatte das so verstanden das AMD sagt das nVidia sagt wer bezahlt bekommt den Code und dann sagt AMD wieder über eine andere Firma (CDPR) sie hätte gesagt das stimmt nicht ^^.

Zusammenfassend gesagt kommt sämtliche Information diesbezüglich aus einer Quelle bisher ^^.

Cat Toaster (unregistriert) 22. Mai 2015 - 19:43 #

nVidia sagt: Wir geben jedem den Quellcode der dafür zahlt.
AMD sagt: CDPR sagt sie hätten keine Einsicht in den Quellcode

Lösung: CDPR nutzt GameWorks-Effekte, zahlt aber freilich nichts dafür (und hat daher keinen Zugriff auf den Quellcode) weil man sich damit PR-Mäßig gegenseitig befruchtet.

ChuckBROOZeG 19 Megatalent - 18947 - 22. Mai 2015 - 19:47 #

Na hier in der News steht das AMD sagt das nVidia sagt ^^.
Haarspalterei halt :-D.

Gibts dazu irgendein beleg wo nVidia gesagt hat zahlt uns für GameWorks Geld und ihr bekommt den Quellcode?

Mal abgesehen davon das ich immer dachte das Entwickler für GameWorks nix ausgeben.

Cat Toaster (unregistriert) 22. Mai 2015 - 19:53 #

"Nvidias Antwort ließ nicht lange auf sich warten. Laut Gameworks PR Brian Burke biete Nvidia den Quellcode jedem Entwickler an, der bereit ist, für die entsprechende Lizenz zu zahlen"

Zweiter Absatz der obigen News.

Natürlich geben die Studios für GameWorks nichts aus. Aber sie kommen eben dafür auch nicht an den Quellcode. Weisste ich mein? ;)

ChuckBROOZeG 19 Megatalent - 18947 - 22. Mai 2015 - 20:02 #

Ah ja jetzt wo du es sagts.
Ich sollte an meinem Aufmerksamsdefizit arbeiten ^^.

Cat Toaster (unregistriert) 22. Mai 2015 - 20:05 #

Ist mir auch schon mal passiert :)

Alex Althoff 20 Gold-Gamer - 20926 - 22. Mai 2015 - 18:25 #

Der 2. Absatz passt genau so.

Wer Geld investiert darf auch eigene Techniken so einsetzen das sie optimiert werden. CD Project hat dafür ja auch Geld gezahlt um Gameworks zu nutzen. AMD schiebt die Schuld immer zu Nvidia - sollen sie halt auch mal Geld investieren - ach ja - keins da!

Man kann auch nicht erwarten das Ford die Techniken von Benz bekommt und das umsonst! Ich erinner gern an Tomb Raider das erstmal nicht auf Nvidia Karten ging mit Tress FX und Nvidia schob nen Patch nach und es ging. Von nix kommt nix!

valorum 11 Forenversteher - 565 - 22. Mai 2015 - 20:01 #

Ein Auto-Vergleich! Das ist ja mal was ganz neues und wie immer voll zutreffend, wenn es sich um Computerhardware handelt...
Zumal Daimler und Ford in der Tat in gewissen Bereichen bei F&E zusammenarbeiten.

Und anscheinend bekommt der Entwickler eben auch gegen Bezahlung keine Einsicht in den Quellcode. Dass sie diesen trotzdem einsetzen, wirft kein besonders gutes Licht auf CDP. Ich finde der Entwickler ist dafür zuständig, dass ein Spiel auf gängiger Hardware, die standardisierte Schnittstellen unterstützt, wie vorgesehen funktioniert. Unabhängig von der genauen Hardware-Auswahl. Leider ist The Witcher hier nur ein Beispiel unter vielen.

Dass nv auch eine Mitschuld gegeben wird liegt eben daran, dass nicht nur der Verführte sondern auch der Verführer als moralisch verantwortlich angesehen werden kann. Ob das objektiv sinnvoll ist, kann man schwer beurteilen. Aber so abwegig ist diese Sicht der Dinge nun wohl auch nicht.

matthias 13 Koop-Gamer - 1253 - 22. Mai 2015 - 21:35 #

wer sagt denn das bei der lizensierung gleich der sourcecode bei ist? warum sollte der gekauft werden? um amd kosten zu sparen? war das der plan von amd, als sie ihr forschungsbudged auf ein 10 jahrestief gesenkt haben?
"nvidia bezahlt und wir zeigen so lange mit dem finger auf sie, bis sie ihre entwicklungen verschenken!" hallo?

Elfant 16 Übertalent - P - 4141 - 22. Mai 2015 - 22:17 #

Weiß Du zufällig wann dieser Patch kam?

Green Yoshi 20 Gold-Gamer - 23754 - 22. Mai 2015 - 18:27 #

Dann schaltet man als Besitzer von AMD-Karten Hairworks eben aus. Sehe das Problem nicht.

Die Entwickler hätten sie ja auch früher wegen TressFX kontaktieren können.

maddccat 18 Doppel-Voter - 11284 - 22. Mai 2015 - 18:28 #

Das schalten auch bestimmt gut 90% der Nvidia-User aus. ;)

gnadenlos 16 Übertalent - P - 5825 - 24. Mai 2015 - 0:11 #

Läuft erstaunlich gut. Trotz 1440p kann ich es problemlos einschalten. Liegt zwar auch an G-Sync, wo es auf 10fps mehr oder weniger nicht mehr ankommt, aber die 60fps hätte ich weder mit noch ohne Hairworks, was nur zeigt wie wichtig G-Sync gerade bei höheren Auflösungen ist.

TheKing28 13 Koop-Gamer - 1398 - 22. Mai 2015 - 18:26 #

Sprüche die mir dazu einfallen:

- Bloß nicht in die Haare kriegen
- Da ist ein Haar in der Suppe
- So eine haarige Angelegenheit
- Die haben Haaren auf den Zähnen

wer kennt noch welche?

ChuckBROOZeG 19 Megatalent - 18947 - 22. Mai 2015 - 18:27 #

Da steht n haariges Pferd auf dem Flur? zählt der? ^^

maddccat 18 Doppel-Voter - 11284 - 22. Mai 2015 - 18:29 #

Haarscharf!

TheKing28 13 Koop-Gamer - 1398 - 23. Mai 2015 - 6:07 #

Auf jeden Fall!

McSpain 21 Motivator - 27128 - 22. Mai 2015 - 18:30 #

Wo der Frosch die Locken hat.

Alex Althoff 20 Gold-Gamer - 20926 - 22. Mai 2015 - 18:35 #

Haarspalterei!

Denis Michel Freier Redakteur - 119525 - 22. Mai 2015 - 18:47 #

Ich habe sie alle bewusst im Text vermieden. Die ganze Angelegenheit ist sowieso pure Haarspalterei und beide lassen kein gutes Haar aneinander. Also warum sich deshalb die Haare raufen.

ChuckBROOZeG 19 Megatalent - 18947 - 22. Mai 2015 - 19:26 #

Na damit Taft mehr an den "Mann" bringen kann.

Khronoz 14 Komm-Experte - 1863 - 23. Mai 2015 - 9:28 #

Stehen zwei Blondinen unter der Dusche. Sagt die eine: "Gib mir mal bitte dein Shampoo."

"Ja aber du hast doch eines neben dir stehen."

"Ich weiß. Auf dem steht allerdings für trockenes Haar und meine sind doch schon nass."

Noodles 22 AAA-Gamer - P - 31304 - 23. Mai 2015 - 11:46 #

Den kannte ich noch nicht. :D

immerwütend 21 Motivator - P - 29525 - 22. Mai 2015 - 18:40 #

Die zanken sich genauso wie die Gamer...^^

ChuckBROOZeG 19 Megatalent - 18947 - 22. Mai 2015 - 19:27 #

Nein immer 2 mal mehr als du.

immerwütend 21 Motivator - P - 29525 - 22. Mai 2015 - 21:15 #

Ich zanke nie, ich spotte nur...^^

Noodles 22 AAA-Gamer - P - 31304 - 22. Mai 2015 - 18:46 #

Versteh nicht, wo das Problem liegt. Ich lese überall, dass das Spiel auch auf AMD-Karten super läuft, nur halt ohne Hairworks. Und deswegen regen die sich auf? Weil ein Nvidia-Feature auf AMD-Karten nicht gut läuft? Bei Tomb Raider musste ich TressFX auch deaktivieren, weil mit meiner 560 Ti die Performance runterging, hab mich deswegen aber nicht über AMD aufgeregt.

Koffeinpumpe 15 Kenner - 3250 - 22. Mai 2015 - 18:47 #

Kann mir das mal jemand erklären?
Stammt die Engine (Gamework?) des Spiels von Nvidia, oder warum kann es Routinen beinhalten, auf die AMD keinen Zugriff hat?

Denis Michel Freier Redakteur - 119525 - 22. Mai 2015 - 18:54 #

Gameworks ist eine Nvidia-exklusive Technologie, oder besser gesagt eine Sammlung von Features (PhysX, Hairworks, HBAO+ etc. ) für Nvida-Karten. Die Game Engine stammt von CD Projekt.

Koffeinpumpe 15 Kenner - 3250 - 22. Mai 2015 - 19:11 #

Ah, kapiert. Danke! :)

Cat Toaster (unregistriert) 22. Mai 2015 - 19:32 #

GameWorks ist ein Toolkit. Wenn Du Dir als Entwickler keinen Kopf machen willst selbst die Physik zu berechnen, Haare in Echtzeit zu simulieren etc. und ein paar weitere Effekte dann kannst Du Dir die fertigen Effekte von nVidia einbauen und musst das Rad nicht selbst erfinden.

Nur wie das genau geht, siehst Du nicht. Der Entwickler bekommt eine schöne Clicki-Bunti-GUI und exportiert dann das fertige Ergebnis um es in sein Spiel einzubauen. Völlig überraschend funktioniert der spezifische Effekt auf dem Mitbewerbsprodukt dann gar nicht so gut. Der Entwickler kann es nicht ändern, weil er nicht an den Quellcode kommt, nVidia will es nicht ändern.

Intel macht das mit seinen angepassten Compilern genau so und hat auch nachweislich immer mal wieder künstliche Verlangsamungen für den Mitbewerb eingebaut. Heute, wo AMD-CPUs "natürlich langsam" sind, benötigt man das natürlich nicht mehr.

Wenn der Entwickler von vornherein selbst alles macht kann er in der Entwicklung die unterschiedliche Hardware selbst ansprechen und den Quellcode anpassen oder ihn AMD/nVidia/Intel zu Verfügung stellen um die notwendigen Anpassungen im Code zu machen. Ist natürlich aufwendiger als sich eine "Blackbox" reinzuholen.

Besonders drollig ist die Annahme hier zu lesen, die nVidia-Partner-Studios müssten für GameWorks irgendetwas zahlen. Dabei geht es natürlich um die mediale Aufmerksamkeit, wenn nVidia eine "Pressemitteilung" raus gibt das ein neues Spiel X mit den neuesten nVidia-Karten ganz besonders gut läuft (so wie jedes andere Spiel auch...), man einen "GameReady-Treiber" zur Verfügung stellt und noch einen "Tuning-Guide" und in allen Benchmarks am Release-Tag den Mitbewerber an die Wand drückt, potenziert mit tausenden News-Seiten gleichzeitig. Natürlich ist das ein genauestens kalkuliertes PR-Feuerwerk und viel wichtiger als hier und da zu sparen.

Natürlich bietet man AMD dann generös an die "Technologie" zu lizenzieren. Was natürlich dämlich wäre, hat AMD sein TressFX 3.0 für die Haarsimulation als OPEN-SOURCE zur Verfügung gestellt. -> http://tech4gamers.com/amd-announced-revolutionary-tressfx-3-0-open-source-no-black-box/

Und weil es Open Source ist, wird nVidia kein Problem haben sich darauf einstellen zu können.

Koffeinpumpe 15 Kenner - 3250 - 22. Mai 2015 - 20:15 #

Danke für die Erklärung!
Wobei ich mich etwas wundere, dass es keine findigen Drittanbieter gibt, die selbst entwickelte Treiber für PhysX, Hairworks usw. anbieten, die vielleicht sogar noch effektiver arbeiten würden.

Cat Toaster (unregistriert) 22. Mai 2015 - 20:45 #

Gibt es, die haben nur nicht einen Präsentkorb mit GPUs und gigantischem Gratis-Marketing dabei (in jeder eben genannten "nVidia-News" stand ja auch "Witcher 3" und die ganze Welt "berichtet" darüber) sondern die wollen stattdessen ihrerseits Geld für ihre Middleware.

Zum Beispiel Havok bietet so etwas noch an -> http://www.havok.com/

Gehört übrigens zu Intel...der Markt ist sehr viel kleiner als all die vielen klangvollen Namen einem vortäuschen.

Es gibt noch einige andere, aber die müssen halt alle Geld verdienen und wenn nVidia die eine oder andere Blackbox samt Marketing verschenkt ist das viel attraktiver. Welcher News-Fritze postet hier schon eine Pressemitteilung von Havok? Interessiert doch keinen, polarisiert ja nicht.

Nur das es effektiver wäre, da muss ich Dir widersprechen. Effektiver als Effekte auf der eigenen Hardware zu coden mit Zugriff auf den Quellcode des Treibers geht es schlichtweg nicht. Nur ohne Wettbewerb gibt es auch bald keinen Grund mehr für Effizienz.

Horschtele 16 Übertalent - P - 5399 - 22. Mai 2015 - 23:10 #

Gute Erklärung. Proprietärer Kram ist echt furchtbar für Entwickler und User, deswegen sind beispielsweise auch einige Microsoft Geschichten so verpönt (alte Internet Explorer Versionen, NTFS, .docx-Dateien, etc.). Zu nix kompatibel, außer zu sich selbst. Mit so einer Politik der verbrannten Erde verbaut man langfristig gesehen ne Menge Potential. Bei Open Source haben hingegen am Ende des Tages alle was davon.

Spiritogre 18 Doppel-Voter - 11209 - 24. Mai 2015 - 13:52 #

Tja, Firmen wollen Geld verdienen, nur deswegen machen die das überhaupt. Und wer sich dann am Markt mit seiner Technologie und seinen Formaten durchsetzen kann, der hat gewonnen. Mit offenen Standards und kostenloser Software hingegen lässt sich kein Blumentopf gewinnen, geschweige denn Milliarden verdienen.

Serenity 15 Kenner - 3266 - 23. Mai 2015 - 8:47 #

Danke für die ausführliche Erklärung.

Francis 14 Komm-Experte - 2580 - 22. Mai 2015 - 19:26 #

Ich mag Nvidia nicht...

ChuckBROOZeG 19 Megatalent - 18947 - 22. Mai 2015 - 19:27 #

Ich mag Großkonzerne im allgemeinen nicht ^^.

Zottel 16 Übertalent - 4110 - 22. Mai 2015 - 20:29 #

Ich kann nur von meiner persönlichen Erfahrung reden. Ich war mal großer ATI Verfechter, aber damals ist mir meine teure Raedon 9800 Pro kaputt gegangen, als sie noch gar nicht so alt war. Seit dem hab ich mich für Nvidia entschieden und ich finde es läuft alles ein wenig runder. Natürlich können auch Nvidia Karten kaputt gehen, aber das hatte ich noch nicht und allein was Treiber angeht, finde ich, dass Nvidia da einen besseren Job macht. Also ich jedenfalls habe immer große Probleme bei ältere Laptops mit ATI Karten den Treiber zu aktualisieren. Was ich so bei Nvidia noch nicht erlebt habe.

maddccat 18 Doppel-Voter - 11284 - 22. Mai 2015 - 20:39 #

Hach ja, die Radeon 9800 Pro - meine von Club3D ist damals auch viel zu früh abgerauscht. Die vom Kumpel ebenfalls.^^

Noodles 22 AAA-Gamer - P - 31304 - 22. Mai 2015 - 22:12 #

Mir ist eine 9600 Pro abgeraucht. 2mal. Seitdem nur noch Nvidia.

maddccat 18 Doppel-Voter - 11284 - 22. Mai 2015 - 22:34 #

Ich seh das nicht so eng. Meine EVGA Geforce GTX 560 war hinsichtlich der Langlebigkeit schließlich auch Mist. ;)

Noodles 22 AAA-Gamer - P - 31304 - 22. Mai 2015 - 23:28 #

Eine Nvidia-Karte ist mir noch nie abgeraucht. Und ich kaufe halt das, womit ich gute Erfahrungen gemacht hab. ;)

EvilNobody 13 Koop-Gamer - P - 1679 - 23. Mai 2015 - 12:26 #

Ich hab zur Zeit mal wider Probleme mit meiner AMD-Karte. Bei hohen Einstellungen ständig ein Blackscreen und das ist wohl ein bekanntes Problem bei der 270x und der 290x. Echt zum Kotzen, beim nächsten Mal wieder NVidia.

Cat Toaster (unregistriert) 23. Mai 2015 - 13:05 #

Mir ist es nicht bekannt. In 9h Spielzeit keinerlei Auffälligkeiten mit einer 290X. Gibt ja auch mehr als eine und mehr als einen Treiber und ein Betriebssystem und einen Hintergrundprozess.

Bekannt ist - Herstellerunabhängig - das durch die enorme GPU-Last verstärkt Abstürze zu beobachten sind. Sowohl bei manuell übertakteten GPUs die "sonst überall immer" laufen, also auch bei zu optimistisch werksübertakteten. Um das auszuschließen kann man in solchen Fällen die Taktraten von Speicher und GPU via Treiber leicht senken.

Das Spiel läuft default im "Vollbild-Fenster" was ziemlich Panne ist. Natives Vollbild sollte es sein.

Google Chrome beenden soll helfen.

GTX 770-Nutzer sollen vielfach betroffen sein, ich weiß nicht ob die jetzt alle zu AMD wechseln. Wahrscheinlich nicht weil der Hersteller einfach so geil ist und immer die anderen schuld sind.

Treiber-Downgrade auf "vor den GTA5-Gameready soll helfen"

UAC AUS, Adminrechte, DX konsistent, Grafiktreiber-Einstellungen default, Unnützen Kram im Tray beendet (Afterburner und FRAPS in Kombination sind häufig ein Absturzgarant)?

http://www.gog.com/support/the_witcher_3_wild_hunt_preorder/crashing_in_general
http://www.gamestar.de/spiele/the-witcher-3-wild-hunt/news/the_witcher_3,49062,3086060.html

Besonders erwähnenswert ist auch das die Frametimes problematisch sind was zu einem "ruckligen Spielgefühl" führt:

http://www.vg247.com/2015/05/21/the-witcher-3-devs-working-on-a-patch-to-address-stuttering-frame-rate-issues/
http://www.technobuffalo.com/2015/05/21/is-witcher-3-stuttering-for-you-devs-are-working-on-it/

EvilNobody 13 Koop-Gamer - P - 1679 - 23. Mai 2015 - 13:33 #

Das Problem mit 270/290x hat nichts speziell mit dem Witcher zu tun, das ist ein hardwareseitiges Problem und hat mit dem fehlerhaften Speicher mancher Karten zu tun, häufig die von Sapphire. Ich hatte das Problem jetzt schon öfter, sobald ich AA und/oder AF einschalte, gibt´s nen schwarzen Bildschirm und nur ein Hard Reset des PCs hilft. So geschehen bei The Evil within, Far Cry 3 und vielen anderen Spielen.

Cat Toaster (unregistriert) 23. Mai 2015 - 13:48 #

Und warum tauschst die Karte nicht um?

EvilNobody 13 Koop-Gamer - P - 1679 - 23. Mai 2015 - 23:35 #

Ich habe die über einen Amazon-Drittanbieter und der ist irgendwie nicht erreichbar. Außerdem ist die Karte jetzt schon ein Jahr alt, habe ich da überhaupt noch Chancen? Der Witz ist ja: ich habe lange nicht gemerkt, dass da was nicht stimmt, da ich meistens genügsame Spiele zocke. Als ich dann aber mal was Anspruchsvolles spielen wollte, ist eben der Mist mit dem Blackscreen passiert. Dachte erst, es läge an einem zu schwachen Netzteil und hab dann ein 650W-Netzteil verbaut, hat aber nicht geholfen.

Makariel 19 Megatalent - P - 13791 - 23. Mai 2015 - 13:57 #

Was macht ihr alle das eure Karten ständig schmelzen? Mir sind bislang weder NVidia noch ATI/AMD Karten abgeraucht... óÒa

Slaytanic 22 AAA-Gamer - P - 33976 - 23. Mai 2015 - 14:21 #

Und ich hatte schon das Gefühl ich wäre hier der Einzige dem das noch nicht passiert ist. ;)

ChuckBROOZeG 19 Megatalent - 18947 - 23. Mai 2015 - 14:33 #

Ihr tauscht einfach nur viel zu oft eure hardware aus ^^.

Slaytanic 22 AAA-Gamer - P - 33976 - 23. Mai 2015 - 16:29 #

Die Zeiten sind doch lange vorbei. :)

ChuckBROOZeG 19 Megatalent - 18947 - 23. Mai 2015 - 17:23 #

Trotzdem ich hatte bis vor ca 14 monaten noch ne gtx 260². Und die war alt genug um auszusteigen (teilweise zumindest ^^)

D43 15 Kenner - 3588 - 23. Mai 2015 - 23:27 #

Mir ist in 18 Jahren 1ne abgeraucht und das war einen geforce 670 damals bei skyrim, war vll ein Jahr alt und von einem auf den anderen Moment Schrott :(. Hatte sonst nie Probleme egal ob ati /radeon oder nvidea.

Spiritogre 18 Doppel-Voter - 11209 - 24. Mai 2015 - 13:56 #

Mir ist bisher auch ein Grafikchip abgeraucht, das war eine GeForce 8600 m GTX. Recherchen haben dann ergeben, dass der Chip fehlerhaft produziert war und Reihenweise abgeraucht ist. Hat mir nur nichts mehr genützt, das Notebook war quasi auf den Tag drei Jahre alt. Und dadurch Reif für die Tonne, da sich die Reparatur schlicht nicht mehr lohnte, obwohl ansonsten halt noch ein Top Gerät.

Desktop Karten sind mir allerdings weder von NVidia noch AMD (noch anderen) jemals abgeraucht.

floppi 22 AAA-Gamer - - 33563 - 26. Mai 2015 - 7:37 #

Drei Grafikkarten sind mir bisher abgeraucht:

- 3dfx Voodoo 3 3000
- ATI Radeon X850 XT
- Nvidia Quadro NVS 135M

Nichts davon übertaktet, einfach abgeraucht. ;)
Eigentlich sogar vier, mir ist auch mal ein Amiga 500 abgeraucht, nach einer 24h-Dauerzock-Aktion. :D

immerwütend 21 Motivator - P - 29525 - 26. Mai 2015 - 14:12 #

Mir ist auch mal eine abgeraucht, das war in dem Jahr, in dem die WM in Deutschland stattfand. An der WM lag es nicht, aber offensichtlich an der Hitzewelle, die uns gleichzeitig heimsuchte...

joker0222 26 Spiele-Kenner - P - 75228 - 26. Mai 2015 - 22:36 #

War der Sommer 1974 wirklich so warm?

immerwütend 21 Motivator - P - 29525 - 27. Mai 2015 - 9:07 #

Von Gewinnen habe ich nichts gesagt ;-)

joker0222 26 Spiele-Kenner - P - 75228 - 22. Mai 2015 - 22:01 #

Ich mag das AMD-Mimimi nicht...

Despair 16 Übertalent - 4551 - 22. Mai 2015 - 19:55 #

Eigentlich liegt die Schuld doch bei CD Projekt. Hätten die zusätzlich TressFX ins Spiel implementiert und eine entsprechende Wahlmöglichkeit in den Grafikoptionen untergebracht, gäbe es diese Performanceprobleme jetzt nicht. Schließlich hat ja der Entwickler dafür Sorge zu tragen, dass sein Produkt sowohl auf Nvidia- als auch auf AMD-Hardware ansprechend aussieht und flüssig läuft. Ausgerechnet AMD zu benachteiligen wäre auch wenig schlau, wenn man bedenkt, welche Grafikhardware in den aktuellen Konsolen werkelt...

Cat Toaster (unregistriert) 22. Mai 2015 - 19:58 #

Wobei ich es jetzt nicht schlimm finde es abschalten zu müssen. Das habe ich mit zwei 7970ern im CrossFire bei Tomb Raider mit TressFX auch so gemacht.

Was nützt mir das wenn da die Haare in Kopf und Schultern rumglitchen für 20-50% der gesamten Grafikleistung?

Ob AMD oder nVidia, das steht für mich in keinem Verhältnis.

Es geht um Marketing und es funktioniert.

Despair 16 Übertalent - 4551 - 22. Mai 2015 - 20:16 #

Echt? Ich hab' TressFX bei "Tomb Raider" eingeschaltet, und es lief sogar auf meiner altehrwürdigen 5770 ganz ordentlich. Okay, bei Großaufnahmen wurde es gelegentlich etwas ruckelig... :D

Cat Toaster (unregistriert) 22. Mai 2015 - 20:53 #

Auf 5040x1050 in Triple-Wide war es ein bissel too much. :)

Despair 16 Übertalent - 4551 - 23. Mai 2015 - 10:12 #

Tja, bei einer solchen Auflösung muss man halt Abstriche machen.^^

Makariel 19 Megatalent - P - 13791 - 22. Mai 2015 - 20:10 #

"Chief-Gaming-Scientist" DAS wär mal ein Job für mich :D weiß nur nicht ob man noch ernst genommen wird wenn das auf der Visitenkarte steht?

Mclane 18 Doppel-Voter - P - 12279 - 22. Mai 2015 - 21:03 #

Ach das würde ich entspannt sehen solange die richtigen Zahlen auf dem Gehaltsscheck stehen.

Jassir 11 Forenversteher - 738 - 22. Mai 2015 - 22:29 #

50% Einbußen ist ein wenig hochgegriffen, 15-20% fps wenn man Tessellation im Bereich von 2x-16x aktiviert. Also durchaus akzeptabel für eine native Technologie eines Fremdherstellers. Glitchen tut da nix.

Scheinbar hat CDProjekt da was mitgenommen was AMD nicht hatte anbieten wollen und wenn sich letztere jetzt auf die Hinterbeine stellen und von Manipulation reden, machen sie sich imho lächerlich, in diesem Fall zumindest.

Project Cars ist allerdings ne andere Geschichte, was da abgeht ist ein wenig extrem. So derbe FPS-Unterschiede von ähnlich starken Grafikkarten hab ich noch nie gesehen. Außerdem wimmelt es auf der Homepage des Entwicklers von NVidia-Werbung, das nicht mehr feierlich ist.

matthias 13 Koop-Gamer - 1253 - 23. Mai 2015 - 9:03 #

bei project cars hieß es aber, man habe von nvidia ausgezeichneten support erhalten, die ganze werbung soll als dankeschön verstanden werden. mit amd wurde zwar kommuniziert, aber eben auch nur das. wie war das mit der letzten mail von amd vom oktober 2014?...
es ist doch seltsam, das amd immer gegen 2 steht, nvidia und softwarehersteller. vielleicht sollte man doch mal die fehler bei sich suchen.

Cat Toaster (unregistriert) 23. Mai 2015 - 11:28 #

Man kann den Spieß ja fairerweise mal umdrehen. Wie viele Spiele aus AMDs "Gaming Evolved" Programm haben Schwierigkeiten mit nVidia-Grafikkarten?

- Battlefield Hardline
- Battlefield 4
- Dragon Age Inquisition
- Civilization Beyond Earth
- Sniper Elite III
- Thief
- Plants vs. Zombies Garden Warfare
- Alien Isolation
- GTA 5
- Crysis 3
- Bioshock Infinte
- Lichdom
- Murdered Soul Suspect
- The Sims 4
- Styx Master of Shadows
- Dirt Rally
- Star Citizen
- Tomb Raider

Der einzige Titel der bei Release mit nVidia-Karten mucken gemacht hat war Tomb Raider, EIN Titel!

Lorin 15 Kenner - P - 3675 - 23. Mai 2015 - 5:59 #

Das geht schon seit so vielen Jahren immer hin und her....

Cat Toaster (unregistriert) 23. Mai 2015 - 10:19 #

Es gibt übrigens einen wunderbar einfachen Trick HairWorks auf AMD GPUs sehr ansprechend zum laufen zu bringen ohne dabei 50% der Performance zu verlieren über ein manuelles Anwendungsprofil im Catalyst:

http://tech4gamers.com/witcher-3-hairworks-tweaks-amd-gpus-huge-increament-performance/

Herstellerunabhängig stören sich 21:9 Nutzer daran das die HUD-Elemente mittig auf 16:9-Niveau bleiben. Das lässt sich mit einem einfachen INI-Tweak korrigieren. Dazu geht man in C:\Users\%Username%\Documents\The Witcher 3 und ruft die darin befindliche Datei user.settings mit einem Texteditor auf und ändert folgenden Wert:

UIHorizontalScale=1 -> UIHorizontalScale=1.3

Die Datei muss man im Anschluss "schreibschützen", sonst wird die Änderung wieder zurück gestellt sobald man im Spiel in den Grafikoptionen etwas umstellt. Umgekehrt merkt er sich nichts was man umstellt bevor man den Schreibschutz wieder aufhebt.

Was derzeit noch bleibt ist das lästige Letterboxing der Cutscenes.

Performance-Tips von meiner Seite:

Allgemein

VSync: Ein
Bildrate: 60fps
Auflösung: 1920x1080/3440x1440
Modus: Vollbild
HairWorks: Aus
Zahl der Charaktere: Höchste
Schatten: Niedrig (Niedrig vs Höchste, ich seh´s nicht)
Gelände: Höchste
Wasser: Niedrig (Niedrig vs Höchste, ich seh´s nicht)
Grasdichte: Höchste
Texturqualität: Höchste
Sichtweite: Niedrig (Niedrig vs Höchste, ich seh´s kaum)
Detailgrad: Höchste

Nachbearbeitung:

Bewegungsunschärfe: Aus
Weichzeichnen: Aus
Kantenglättung: Ein
Blooming: Ein
Scharfzeichnen: Aus
Umgebungsverdeckung: SSAO
Schärfentiefe: Aus
Chromatische Abweichung: Aus
Vignettierung: Ein
Lichtstrahlen: Ein

Gerade bei Schatten, Wasser und Sichtweite sehe ich selbst zwischen niedrigster und höchster Einstellung kaum einen Unterschied. Muss natürlich jeder für sich selber testen, ist nur ein subjektiver Serviervorschlag. Die Einstellungen resultieren in:

30-40fps "Low-End" 1920x1080 auf einem A10-6700 mit 2GB Radeon 7790 (vgl. i5-750+/AMD X4 750k+/i3 mit HT+ CPU und GTX 750/Radeon 5870/260X+ 2GB+) Bei weniger als 2GB Grafikspeicher sollte der Texturregler als nächstes angefasst werden.

45-60fps "Higher-End" 3440x1440 (CPU lass ich mal weg, weil solang aus diesem Jahrzehnt und vier Threads reicht es immer, siehe Low-End). 2GB Grafikspeicher reichen immer noch dicke. GPUs: 290X/780/970/980+

In beiden Varianten kommen allerdings 16-32GB Arbeitsspeicher zum Einsatz (der Hexer reserviert sich bis zu 4GB was ich beobachtet habe, also 8GB sollte das System schon haben) und es wird von SSD gespielt, was lästige Nachladeruckler/Bildrateneinbrüche beim Textur-Streaming von steinalten Magnetplatten ausschließt. Wer von einer uralten Magnetplatte spielt (bitte defragmentieren!) wird also eventuell miese/häufig stockende Bildraten und Popups einhergehend mit emsiger Aktivität der Festplatten-LED als eindeutiges Indiz erleben.

Wer "Schönwetter-Testest" sollte sich etwas Luft lassen bei der Bildrate die bei Kämpfen und Regen noch einmal leicht abfällt (5-10fps).

"Texturqualität" kostet am wenigsten Leistung und macht optisch den größten Reiz aus (besonders in Cutscenes). Solang man 2GB Grafikspeicher hat sehe ich nicht warum man das unter der höchsten Einstellung fahren sollte.

Witcher 3 ist extrem GPU-Lastig und taugt durchaus als Stabilitätstest. Wer Abstürze zu verzeichnen hat sollte seine "Übertaktung" der Grafikkarte (GPU und Speicher) zurückfahren. Auch das "Hersteller-OC" kann sich in solchen Fällen durchaus als zu optimistisch erweisen. Hier kann ein leichtes "untertakten" Abhilfe schaffen. In jedem Fall sollte aber die Kühlung mit optimaler Effizienz laufen!

Windows 7 x64/Catalyst 15.4 Beta/Witcher 1.03 (nach dem 1.03 Patch wird die Texturauflösung auf "Niedrig" gesetzt, das bitte prüfen bevor man in Foren von einer durch den Patch gesteigerten Bildrate fabuliert!)

Und wie Jörg in der SdK schon sagt: "Gibt bestimmt bald eine Reality-Mod" wegen der bunten Farben. Und hier ist sie:.

http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Videos/Video-Grafikvergleich-Ultra-vs-Project-Reality-v14-SweetFX-1159733/

Naja...90% davon erreicht man im "Nachbearbeitungs-Menü" des Spiels auch so und bei den Farben bringt es nicht das was ich mir wünschen würde.

DomKing 18 Doppel-Voter - 9421 - 23. Mai 2015 - 11:57 #

Meine Einstellungen mit einer R9 270:

Allgemein

VSync: Ein
Bildrate: 60fps
Auflösung: 1920x1080
Modus: Vollbild
HairWorks: Aus
Zahl der Charaktere: Höchste
Schatten: Hoch
Gelände: Höchste
Wasser: Höchste
Grasdichte: Höchste
Texturqualität: Höchste
Sichtweite: Hoch (bringt die meisten fps)
Detailgrad: Höchste

Nachbearbeitung:

Bewegungsunschärfe: Aus
Weichzeichnen: Ein
Kantenglättung: Ein
Blooming: Ein
Scharfzeichnen: Niedrig
Umgebungsverdeckung: SSAO
Schärfentiefe: Ein
Chromatische Abweichung: Ein
Vignettierung: Ein
Lichtstrahlen: Ein

Das ergibt in der Regel 30-50fps. So gut wie nie drunter, höher geht immer. Von daher ist mir der Hairworksstreit eh egal. Ich bin ziemlich froh, dass das Spiel so gut läuft.

Labrador Nelson 27 Spiele-Experte - - 92263 - 30. Mai 2015 - 16:29 #

Da wird mit harten Bandagen gekämpft! So ist es halt, wenn der ganze Wettbewerb aus zwei Firmen auf dem Markt besteht. Das gabs früher auch schon zwischen Nvidia und Ati und AMD gegen Intel. Nichts neues. Immer ärgerlich für den Gedissten, aber tja...

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit