AMD wettert erneut gegen den Konkurrenten: „Nvidia sabotiert auch die Leistung eigener Grafikkarten“

Bild von Denis Michel
Denis Michel 287333 EXP - Freier Redakteur,R10,S1,A8,J10
Darf als Pro-Gamer die seltene „30“-Medaille tragen.Platin-Gamer: Hat den sehr hohen GamersGlobal-Rang 25 erreichtAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertIdol der Massen: Hat mindestens 10.000 Kudos bekommenExtrem-Schreiber: Hat mindestens 1000 News geschriebenTop-News-Meister: Hat mindestens 500 Top-News geschriebenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreichtBronze-Jäger: Hat Stufe 7 der Jäger-Klasse erreicht

2. August 2015 - 18:05 — vor 8 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Der Chip-Hersteller AMD warf seinem direkten Konkurrenten Nvidia in der Vergangenheit bereits mehrmals vor, die Performance der AMD-Grafikkarten durch Nvidias Gameworks zu sabotieren (siehe dazu auch unsere Meldungen hier und hier). Laut AMDs Chief-Gaming-Scientist Richard Huddy würden Titel, die auf Nvidias Sammlung aus Bibliotheken und Tools zurückgreifen, um Technologien wie Hairworks, TXAA und ShadowWorks zu nutzen, einen deutlichen Verlust der Leistung bei den Radeon-Karten zeigen. Wie er nun in einem Interview anmerkte, würde Nvidia ironischerweise auch die Performance eigener Karten reduzieren.

Nvidias Gameworks schadet normalerweise auch der Performance der eigenen Hardware, was schon ein wenig tragisch ist. Es fühlt sich beinahe so an, als würde es darum gehen, selbst die Leistung der eigenen High-End-Grafikkarten zu reduzieren, damit die Leute etwas Neues kaufen. Das ist die Konsequenz daraus, ob nun beabsichtigt oder nicht. Ich schätze ich kann nicht in ihre Köpfe schauen, also kann ich ihre Beweggründe nicht erklären. Wenn man sich beispielsweise Crysis 2 im speziellen anschaut, dann sieht man, dass selbst beim Wasser, das für den Spieler gar nicht sichtbar ist, Millionen von Dreiecken tesselliert werden. Sie wenden Tesselation auch auf Betonblöcke an - im Grunde große rechteckige Objekte - und erzeugen Millionen von Dreiecken pro Bild, die völlig nutzlos sind.

Dass Nvidia AMDs Performance sabotiere sei schon ziemlich zwielichtig, so Huddy weiter, doch wenn der Konkurrent selbst die Grafikkartenleistung bei eigenen Kunden reduziere, dann frage er sich, welche Motive dahinter stecken. Entweder müsse Nvidias Qualitätssicherung entsetzlich sein, oder man müsse sich die Frage stellen, was sie damit bezwecken wollen. Es sei jedenfalls schlecht fürs Geschäft und schade sowohl Nvidias, als auch AMDs Konsumenten. Er glaube allerdings, dass Nvidia es mit Absicht tue, weil es am meisten AMD schade. „Das ist zumindest meine Vermutung“, so Huddy.

Nokrahs 16 Übertalent - 5996 - 2. August 2015 - 18:12 #

Also ich habe ja keine AMD Karte, aber machen die nicht mit "TressFX" etwas ähnliches? Kostet das auf AMD Karten keine Leistung?

Meursault 14 Komm-Experte - 2660 - 2. August 2015 - 18:37 #

Es geht nicht darum, dass ein zusätzlicher Effekt wie Hairworks oder TressFX Rechenleistung kostet. Das ist klar. Es geht darum, dass die Nvidia Tools/Effekte unnötig Leistung benötigen, weil z.B. Tesselation an nicht sichtbaren Orten genutzt wird (?) oder in höherer Stufe genutzt wird, als es noch Effekt erziele.
Da spielt dann auch noch allgemeine Kritik aus der Nvidia-Community rein, die sich auf die miese Performance der 700er Nvidia-Karten z.B. bei Witcher 3 bezieht, wo der Eindruck entsteht, dass Nvidia die Performance der alten Generation absichtlich drücke. Da seien die Unterschiede Unverhältnismäßig.
Außerdem ist TressFX im Gegensatz zu dem Nvidia Kram Open Source (ebenso wie G-Sync / Free-Sync)

Nokrahs 16 Übertalent - 5996 - 2. August 2015 - 19:01 #

Kann ich mir gut vorstellen, dass gewisse "Ultra" Einstellungen abgesehen davon, dass diese höhere Leistung benötigen, nicht direkt sichtbar sind.

Viele Power Gamer sind ja inzwischen so erzogen, dass "Ultra" als Einstellung im Spiel sein muss und dann werden FPS gemessen und verglichen. Also quasi als zusätzliches "Spiel im Spiel".

Auf der anderen Seite gibt es aber auch gerade von Nvidia zu wichtigen Titeln immer sehr detailierte "Tweak" Guides mit Erklärungen, Vergleichsbildern, Leistungskurven und subjektiver Meinung.

Gerade im Falle von Witcher 3 oder auch GTA V sind beide sehr ausführlich und helfen dabei die beste Bildqualität für die vom Spieler angestrebte FPS per Einstellung vorzunehmen.

Das "Gameworks" Effekte viel Leistung fressen liegt ja auf der Hand, wenn man sich die technischen Daten dazu anschaut. HBAO+ beispielsweise macht das Bild schon erheblich realistischer im Vergleich zu den "normalen" Ambient Occlusion Varianten. Besonders auffällig bei "Watch Dogs".

Es kommt auch immer darauf an, wie das Spiel selbst die Features nutzt und damit umgeht. Ein Witcher 3, welches technisch gesehen ohne "Gameworks" noch einige Patches braucht, bis gewisse Glitches und sonstige Engine Fehler behoben sind, kümmert sich eben auch nach und nach um die Optimierung. Mit dem letzten Patch kamen Anpassungen für in Sachen Skalierung der Qualität für "HairWorks" hinzu.

Es ist nicht immer die Schuld von "Gameworks" wenn ein Spiel schlecht optimiert ist. Nvidia unterstützt die Entwickler zwar bei der Einbindung der Funktionen und vielleicht auch der Optimierung, aber am Ende des Tages muss die Spieleschmiede die sinvolle Anpassung vornehmen.

Will hier nicht Nvidia in Schutz nehmen oder AMD eins reinwürgen. Mir gehen nur diese sinnlosen Diskussionen gewisser Hardware Anbieter ziemlich auf die Nerven, weil sie bei weniger informiertem Publikum nur Unsicherheit auslösen und noch mehr Halbwissen im Netz landet als ohnehin schon.

Was die Community mit 700er Karten zu meckern hat, weiss ich nicht, da nicht gelesen. Maxwell ist in Sachen Tesselation auf alle Fälle erheblich flotter als Kepler und daran ändert auch ein Treiber nichts. Der Spielehersteller könnte auf weniger Tesselation setzen in solchen Fällen.

Equi 14 Komm-Experte - 2012 - 2. August 2015 - 19:54 #

Es geht ganz einfach um ein bedenkliches Muster bei Nvidia's Gameworks Programm: Die Schwächen von AMD-Hardware werden von einigen Gameworks-Effekten gezielt ausgenutzt. Beispielsweise indem man bei Crysis 2 an Backsteinwänden, die nur aus ein paar simplen Quadern bestehen, übelste Polygonmassen berechnen lässt. Ich kann mich noch erinnern wie ich damals mit meiner relativ neuen 6970 8 FPS hatte, wenn so eine Wand das Sichtfeld ausgefüllt hat.

Oder auch indem man bei Witcher 3 die Haare x64 tesseliert, obwohl ab x16 kein optischer Unterschied mehr sichtbar ist. Immer noch sind AMD-Karten bei Tesselation-Leistung deutlich schwächer als ihre Nvidia Pendants. Das perfide daran ist nun, dass solche absurden Qualitätseinstellungen gerüchteweise nicht nur das Ziel haben, die Konkurrenz möglichst schlecht dastehen zu lassen, sondern auch die eigenen Karten der letzten Generation. Ganz abgesehen davon, dass es natürlich beim kompletten Lineup zu unverhältnismäßigen Leistungseinbrüchen kommt, egal ob letzte oder aktuelle Generation. Ist schon alles etwas seltsam.

Außerdem sind diese Gameworks-Bibliotheken geschlossene .dll-Dateien. Die Entwickler bauen also Blackboxen in ihre Spiele ein. Sie haben selbst keine Handhabe in Sachen Optimierung. Nvidia zahlt dafür bei AAA-Titeln wohl 7-stellige Beträge.

Der Ruf nach offenen Entwicklungsstandards von AMD ist durchaus ein reputierliches Unterfangen, die Art wie es vorgetragen wird wirkt inzwischen aber doch etwas arg bockig. Insbesondere da AMD unbestreitbarerweise weniger für die Optimierung von Spielen auf ihren Karten tut als Nvidia.

Webmaster2000 (unregistriert) 2. August 2015 - 22:06 #

Man kann die Effekte doch problemlos abschalten. Mache ich sogar auf meiner GTX980ti, da Kosten-/Nutzen nicht immer in einem guten Verhältnis stehen. HBAO+ nutze ich z.B. fast immer, da es viel bringt, Rauch- und Haar-Effekte eher selten oder nur beschränkt (z.B. Haare beim Witcher auf an / bei Tieren auf aus).

Klar ist es schade, dass Entwickler hier den einfachen Weg gehen und sich die Bonus-Effekte von nVidia frei haus liefern und evtl. sogar noch implementieren lassen, aber wenn das Geld für eigene Effekte nicht da ist, wäre die Alternative dass es die Effekte gar nicht gibt und wir am PC nur 1:1 die Konsoleneffekte bekommen - das kann man auch jetzt haben, indem man die Effekte einfach nicht nutzt, wenn man damit unzufrieden ist.

So mache ich es sowohl mit den nVidia-Effekten als auch mit allen anderen Optionen eines Spiels - alles was zu viel Performance kostet wird abgeschaltet und die Leistung stattdessen in eine höhere Framerate oder in eine höhere Auflösung (und damit Kantenglättung per Downsampling) investiert.

Meursault 14 Komm-Experte - 2660 - 2. August 2015 - 22:49 #

Schade nur dass, was für Effekte du an- und ausschaltest, nichts mit der potenziell besorgniserregenden Firmenpolitik eines Grafikkartenherstellers zu tun haben, der aufgrund schwächelnder Konkurrenz im PC-Sektor unangefochtener Marktführer ist.

Hendrik 28 Party-Gamer - P - 105030 - 2. August 2015 - 22:55 #

Ja, es ist wirklich schade, daß es nur noch zwei Hersteller gibt, von denen einer gewaltig schwächelt.
Leider ja auch im Prozessormarkt.

Meursault 14 Komm-Experte - 2660 - 2. August 2015 - 23:20 #

Ja und das sollte die kritische Betrachtung dessen, was Nvidia und Intel so machen, eigentlich nur fördern. Das wird meiner Meinung nach um so wichtiger je größer deren Marktmacht wird.

Hendrik 28 Party-Gamer - P - 105030 - 3. August 2015 - 7:42 #

Dagegen hilft eigentlich nur aus Prinzip bei der Konkurrenz kaufen.

Noodles 26 Spiele-Kenner - P - 75314 - 3. August 2015 - 18:50 #

Das ist doch auch blöd. Ich kaufe das Produkt, das mich überzeugt und nicht weil ich eine Firma unterstützen will, der es schlecht geht. Die Marktmacht von Nvidia und Intel ist zwar nicht gut, aber deswegen würde ich mir jetzt sicher nix von AMD kaufen. Wenn mal wieder ein gescheiter Prozessor von denen käme, würde ich direkt zuschlagen. ;)

Hendrik 28 Party-Gamer - P - 105030 - 3. August 2015 - 18:54 #

Das war ja auch nicht der Punkt. Ich meinte, daß du, wenn du etwas gegen die Marktmacht der beiden machen willst, aus Prinzip die Konkurrenz wählen mußt, Leistungseinbußen hin oder her. Das dies natürlich die wenigsten machen ist mir klar. ;)

Noodles 26 Spiele-Kenner - P - 75314 - 3. August 2015 - 18:58 #

Achso okay. ;)

Equi 14 Komm-Experte - 2012 - 2. August 2015 - 23:15 #

Dass sogar du mit einer GTX980TI Gameworks Effekte abschaltest, spricht ja wohl Bände darüber, wie unsäglich optimiert diese Sachen teilweise sind.

Cat Toaster (unregistriert) 2. August 2015 - 23:29 #

Das mach ich allerdings auch so. Gerade weil "HairWorks" im Hexer einfach Scheiße aussieht meiner Meinung nach für die Leistung die es frisst.

TXAA ist auch so eine Mumpitz-Kantenglättung die Texturen vermatscht und unscharf darstellt, da darf es wirklich sonst gar nichts geben das ich das freiwillig benutzen würden.

Und HBAO+ ist ein Effekt der sehr hübsch ist, der auf AMD-GPUs allerdings auch nicht mehr Leistung kostet als bei nVidia.

Nokrahs 16 Übertalent - 5996 - 2. August 2015 - 23:40 #

Sehe ich genau so mit "Hairworks". Könnte durchaus das Ding zuschalten, aber die Option "nur Tiere und Monster" fehlt mir. An Geralt sieht das wirklich schlechter aus, als die normalen Haare.

Von TXAA will ich gar nicht erst anfangen. Das sah noch nie gut aus.

Webmaster2000 (unregistriert) 2. August 2015 - 23:43 #

Nein, das ist einfach wie PC Gaming funktioniert. Jeder kann die verfügbare Performance nach seinen Vorlieben nutzen.

Mir ist z.B. eine gute Kantenglättung und eine hohe Framerate und dadurch geringe Bewegungsunschärfe wichtig. Daher ist für mich auch bei 60fps noch nicht Schluss, wenngleich das natürlich schon ein Vielfaches angenehmer als 30fps ist. Auch gute Kantenglättung ist mir wichtig, so dass ich einerseits direkt schon mal einen 1440p Monitor nutze und zum anderen, wenn möglich, per Downsampling noch höhere Auflösungen verwende.

Das ist bei mir auch der Grund für die GTX980ti. Ich will 1440p und 45fps als absolutes Minimum (dank G-Sync fühlt sich das ähnlich wie stabile 60fps an) und andererseits gerne noch höhere Framerates und eine gute Kantenglättung (entweder über Ingame-Optionen oder - wenn das nicht für meine Ansprüche ausreicht - mit Downsampling).

Ein anderer Spieler hat halt gerne auch bei den weiblichen NPCs in Witcher 3 schöne Haare oder sieht gerne große Rauchwolken wenn er mit dem Batmobil durch die Kurven schlittert. Der schaltet dann diese Effekte an. Dafür reicht ihm dann evtl. ein einfacher 1080p Monitor mit 60fps, FXAA zur Kantenglättung und eine deutlich günstigere GTX970.

Man muss sich einfach mal von diesem Ultra-Zwang lösen, der durch Benchmark-Ergebnisse forciert wird. Nur weil Testberichte zur besseren Vergleichbarkeit alles einheitlich auf Anschlag drehen und aktivieren, muss man das als Spieler noch lange nicht, sondern kann eigene Prioritäten setzen.

Von mir aus kann jedes Spiel gerne so viele aufwendige Effekte wie nur irgendwie möglich einbauen - dann hat man jetzt die Wahl und wenn man das Spiel in 5 Jahren nachholt immer noch beeindruckende Grafik.

Cat Toaster (unregistriert) 2. August 2015 - 23:46 #

Wenn es in den Optionen keinen Schalter gibt kannst Du es auch nicht abstellen. Beim Witcher 3 hat es seit Release bis Patch 1.07 gedauert bis man die Tesselation-Leistung für HairWorks in den Spieloptionen selbst granular einstellen konnte.

Putzigerweise ging das bis dahin schon im AMD-Catalyst über ein entsprechend angelegtes Profil sehr gut während nVidia-Nutzer es nur mit dem Holzhammer abstellen konnten.

Beispielsweise sehe ich bei Witcher 3 keinen Unterschied in der Optik bei "Wasser" und bei "Schatten" im Vergleich Niedrig vs Maximum. Sehr wohl aber bei der Bildrate. Egal ob 980Ti oder 290X. Ob da wohl "nutzlose Tesselation" zugeschaltet wird von der im Artikel die Rede ist? Wundern würde es mich nicht.

Für viele Effekte gibt es keine Schalter oder man weiß nicht immer was hinter den vorhandenen steckt. Will eigentlich auch niemand wissen müssen, kann man aber prima zur Manipulation nutzen.

Nokrahs 16 Übertalent - 5996 - 2. August 2015 - 23:58 #

Also die Schattendetails unterscheiden sich hauptsächlich dadurch, dass die Renderdistanz höher ist. Mir fällt das in vielen Szenen auf, wie weit Schatten noch dargestellt werden und das Bild wirkt insgesamt plastischer.

Wasser unterscheidet sich von der direkten "Optik" tatsächlich nicht großartig zwischen den Einstellungen, aber ab Einstellung "Hoch" wird die Wasser-Simulation aktiviert.

Webmaster2000 (unregistriert) 3. August 2015 - 0:03 #

Die Wassereffekte kommen zudem AFAIK nicht aus Gameworks, sondern von der normalen Grafikengine des Spiels. Aber da sieht man eben auch, dass das nicht die Schuld von nVidia ist, sondern wie sowas funktioniert. Die letzten paar Prozent an Qualitätszuwachs kosten am meisten Leistung.

Cat Toaster (unregistriert) 3. August 2015 - 0:06 #

Ich hab da auch nach minutenlangem Draufstarren keinen Unterschied gesehen und die beiden Settings auf Niedrig belassen. Und meist bewegt man sich ja. Da war mir der Gewinn an der Bildrate einfach wichtiger als ein Optikgewinn den zumindest ich selbst nicht sehe. Was wird denn an dem Wasser simuliert?

Nokrahs 16 Übertalent - 5996 - 3. August 2015 - 1:49 #

Habe die niedrige Wassereinstellung nie ausprobiert. Steht bei mir auf "Hoch" (nicht Ultra). Schätze es sind die Wasserverdrängungseffekte welche Zauber wie AARD auf dem Wasser erzeugen oder wenn Geralt durch seichtes Wasser läuft vielleicht mehr Effekte beim Boot fahren? Müsste ich selbst mal testen.

Mit 1.07 haben sich ohnehin wieder Fehler eingeschlichen die mit 1.08 behoben werden sollen. Beispielsweise das defekte AA und die Performance Einbrüche in diversen Gebieten. Hauptsächlich werden aber wohl Konsolen einen größeren Performance Schub erhalten, denn die hat 1.07 ja bekanntermaßen am härtesten erwischt.

Pat1986 11 Forenversteher - 797 - 2. August 2015 - 18:55 #

Diese Sache bei Crysis 2 wurde doch rausgepatcht afaik, weil es zu erheblichen Einbrüchen in der Performance geführt.

Starslammer 15 Kenner - 2904 - 2. August 2015 - 19:12 #

Wenn ich da so an die aktuellen Treiber und meine GTX 555er-Karte denke, dann könnte AMD recht haben.

Ich musste den Windows 10-Treiber, wie auch den aktuellen NVIDIA-Treiber auf die Version 347.88 downgraden. Bei allem was danach kam, haben sich die Spiele nach einigen Sekunden aufgehängt gehabt.

Leider kann ich die Karte nicht upgraden, da der Stromstecker bei den aktuellen Karten an die Seite montiert wurde und daher nicht mehr in meinen X51 passt. Bei meiner Karte ist der Stromanschluß hinten an der Karte montiert.

Maulwurfn (unregistriert) 2. August 2015 - 19:22 #

Das mit dem Stromstecker an der Seite, das geht bei mir gerade so, ca 2 mm mehr und ich könnte keinen Saft auf die Karte (gtx 970) geben, wer sich das ausgedacht hat....

Webmaster2000 (unregistriert) 2. August 2015 - 21:58 #

Was habt Ihr denn alle für PCs und Netzteile? Irgendwelche Sonderanfertigungen? Dafür gibt es doch Standards, die dann auch sehr viel Spielraum bei den Kabellängen lassen. Ein Spiele PC gehört IMO mindestens in einen Midi-Tower, wo man dann vernünftig kühlen und aufrüsten kann. Alles andere ist Quatsch und macht - wie man sieht - früher oder später nur Probleme.

Ansonsten kann man die Kabel sicher auch unkompliziert verlängern, wenn es nur an der Länge scheitert.

Starslammer 15 Kenner - 2904 - 3. August 2015 - 5:47 #

Alienware X51 und es scheitert nicht an der Länge sondern an der Dicke des Steckers

Maulwurfn (unregistriert) 3. August 2015 - 15:06 #

Es liegt nicht an der Länge des Kabels, sondern an der Breite des MIDI-Towers, wenn man das Kabel dann eben um 90 Grad führen muss ist es platztechnisch eben schon am Seitenteil, habe vorher ausgemessen, deswegen ja genau 2 mm Luft, sonst wäre die Karte nicht gekauft worden. Generel finde ich die Steckerplatzierung an der Seite unglücklich.

Cat Toaster (unregistriert) 3. August 2015 - 15:12 #

Hinten an einer 30cm-Karte kann Dir genauso den Tag versauen. Ich erinnere mich noch rege daran wie ich einen nicht entnehmbaren und ungenutzten Festplattenkäfig mit einem Hammer gefügig gemacht habe damit die Karte passte. :)

Ist die Karte zu groß ist das Gehäuse zu klein.

Maulwurfn (unregistriert) 3. August 2015 - 15:16 #

Da hatte ich damals beim Kauf drauf geachtet, Gehäuse sollte vollkommen Modular sein, es ist halt ein wenig schmal, für die nächste Karte säge ich einfach ein Stück raus, die Dinger werden ja immer voluminöser.

Triforce (unregistriert) 2. August 2015 - 19:20 #

Ich finde es schade, dass es im Desktop-Bereich nur Grafikkarten von AMD und Nvidia gibt.

Es wäre super wenn Intel (Notebook-GPUs), STMicroelectronics (Kyro II), Qualcomm (Snapdragon) oder PowerVR Technologies (PS Vita GPU) in den Markt einsteigen würden.

Konkurrenz belebt das Geschäft!

CptnKewl 21 AAA-Gamer - 26647 - 2. August 2015 - 19:46 #

Intel ist doch da quasi schon. die in CPU integrierten Grafikkarten. PowerVR ist mittlerweile auch intel

Hermann Nasenweier 21 AAA-Gamer - P - 26392 - 2. August 2015 - 22:37 #

Kyro und kyro 2 waren ja auch PowerVR.

Edit: war eigentlich als direkte Antwort auf den Post von Triforce gedacht

Spiritogre 19 Megatalent - 13401 - 3. August 2015 - 13:17 #

Oh, eine Kyro Karte hatte ich auch mal, war eigentlich gar nicht schlecht. Nach der Monster 3D (Glide Fx) besaß ich auch noch Matrox, die damals für ihre besonders gute Darstellungsqualität bekannt waren, das war auf Röhrenmonitoren und analoger Ausgabe damals schon nicht unwichtig. Leider hat sich Matrox dann recht schnell von den Spielekarten verabschiedet, als sich abzeichnete, dass Nvidia mit GeForce und ATI mit Radeon die Platzhirsche werden würden.

Scheinbar reicht der Markt immer nur für zwei wirklich Große, leider.

Pro4you 19 Megatalent - 16342 - 2. August 2015 - 20:33 #

Klingt ziemlich verbittert.

Cubi 17 Shapeshifter - 6163 - 2. August 2015 - 20:39 #

"Chief-Gaming-Scientist" - ein cooler Titel. :-)

Cat Toaster (unregistriert) 3. August 2015 - 7:32 #

Vorher war er bei Intel "Chief Gaming Evangelist" :)

Jamison Wolf 19 Megatalent - P - 14082 - 2. August 2015 - 21:10 #

Man sollte mit Verschwörungen und Vorsatz nicht so wild um sich schiessen, wenn auch menschliches Versagen herhalten kann.

Durchaus möglich das die Ingenieure und Programmierer bei Nvidia auch nur mit Wasser kochen und sich auch mal nen Fauxpas erlauben aka "schlechte/schlampige Programmierung".

Abgesehen davon ... ist jetzt AMD eigentlich schon verkauft? :)

Webmaster2000 (unregistriert) 2. August 2015 - 21:54 #

@AMD: Dann liefert doch einfach die selben Effekte kostenlos und als Open Source, aber trotzdem mit Support. Also wie nVidia aber in nett.

Geht nicht? Wirtschaftlich nicht sinnvoll? Dann geht zum Heulen wenigstens in den Keller.

Cat Toaster (unregistriert) 2. August 2015 - 23:36 #

Als wenn sie das nicht mit FreeSync, OpenCL und HairWorks schon täten...

D43 (unregistriert) 3. August 2015 - 4:35 #

Setzten sechs, AMD macht genau das...

Webmaster2000 (unregistriert) 3. August 2015 - 11:11 #

Nein, die stellen irgendwelches Zeug auf ihre Entwickler-Website, das keiner haben will. Wo ist z.B. TressFX integriert? Das hat man 1x in Tomb Raider eingebaut, seitdem ist es in der Praxis tot.

Mit Mantle ist es ähnlich gelaufen. Große Töne gespuckt, in ein paar Titel eingebaut um dann die Entwicklung einzustellen.

Die Support-Abteilung reicht auch nur um alle 1-2 Jahre mal ein größeres Spiel bei der Entwicklung zu unterstützen, während das nVidia Team ihre Gameworks Effekte in fast jeden AAA Titel integriert.

Bei den wirklich wichtigen neuen Technologien wie G-Sync und DSR, die das Spielerlebnis auf eine neue Stufe heben, hinkt man auch regelmäßig Monate bis Jahre hinter nVidia hinterher oder hat noch immer nicht aufgeschlossen (fps Limit bei FreeSync). Stattdessen hält man die Kunden mit falschen Terminen und Verschweigen von Mängeln hin und versucht sich als der weiße Ritter mit den offenen Standards zu verkaufen. Zumindest das scheint teilweise Wirkung zu zeigen.

Cat Toaster (unregistriert) 3. August 2015 - 12:24 #

Das ist zum Teil einseitiges Fanboy-Geblubber

Das neue Deus EX, Star Wars Battlefront und Dirt Rally sind ebenfalls Teil des AMD Evolved-Programms wie vergangene Randgruppen-Blockbuster wie Battlefield 4 und Hardline, Dragon Age Inquisition, Thief, Sniper Elite 3, Alien Isolation, Tomb Raider, Bioshock Infinite, Civilization Beyond Earth....

Natürlich sind "schöne Haare" allein ein Pipifax. Nur weil zwei AMD-Titel (Tomb Raider, Deus Ex:Mankind Divided) das können und drei nVidia-Games (CoD:Ghosts, Witcher 3, FarCry4) muss man doch nicht so tun als wäre das ein bahnbrechendes unverzichtbares Feature und nVidia läge damit meilenweit Vorne.

Ja, die wirklich wichtigen Technologien wie "Supersampling/Downsampling" kannte man natürlich vor nVidia nicht und konnte man beide nicht schon Jahre nutzen bevor sie in die Treiber eingebaut wurden. nVidia DSR ist AMD VSR um Lichtjahre voraus...Haken setzen, Auflösung wählen hüben wie drüben. Raketenwissenschaft! Millionen AMD-User haben sich in ihre Messerblöcke gestürzt weil AMD drei Monate nach nVidia damit kam.

Adaptives VSync kannte man auch schon bevor nVidia sich überlegt hat dafür ein proprietäres Modul in dem Monitor einzubauen der den Kunden auf den GPU-Hersteller festnagelt und für den man gern extra Lizenzgebühren bezahlt.

Es geht nicht darum das die "Technologien" per se schlecht sind, sondern wie sie implementiert werden. HBM hat nVidia nicht erfunden, beim Widescreen-Gaming waren sie sie letzten. Drei Monitore an eine Grafikkarte, bei nVidia unmöglich bis zur 600er-Serie.

Da ist jeder Mal mit irgendwas vorn und das ist gut so. Ich will auf keinen Markteilnehmer verzichten müssen solang jeder in der Lage ist den anderen immer wieder heraus zu fordern. Das AMD am Ende immer die wirtschaftliche Luft fehlt und "Open Source" nur dazu dient damit das überhaupt irgendjemand nutzt bei der Marktdurchdringung des Gegners wird doch niemand ernsthaft bestreiten aber es kann doch niemand glauben das irgendwas geiler wäre wenn AMD den Geist aufgibt.

Labrador Nelson 31 Gamer-Veteran - P - 266509 - 2. August 2015 - 23:59 #

Wenn das wahr ist, wäre ich sehr verärgert!

Webmaster2000 (unregistriert) 3. August 2015 - 1:54 #

Und das ist das Ziel der Aussage. Unsicherheit verbreiten und negative Stimmung machen. Ein solche Art der PR, bei der man die Konkurrenz in den Schmutz zieht, ist halt billiger als selbst mehr Entwickler zu beschäftigen.

Jadiger 16 Übertalent - 5509 - 3. August 2015 - 6:26 #

AMD ist ganz einfach ein richtig schlechter Verlierer. AMD schiebt es immer auf die Konkurrenz nie hört man das sie Fehler zugeben.
Projekt Cars lief auf AMD Karten richtig schlecht Begründung seitens AMDs CEO 3 Monate vor release kam Gameworks und dann lief es auf einmal schlecht. Das Spiel war Jahre in Entwicklung und es lief auf keinem Beta Build auf AMD Karten ausreichend geschweige den gut. Plötzlich ist laut AMD die ganze Beta Phase was sich auch mit der Entwickler Aussage gleicht. Was AMD natürlich Abgestritten hat das sie sich nicht darum gekümmert haben. Spielt man das Spiel unter Win 10 hat man auf einen Schlag 25 bis 35% mehr Leistung obwohl nicht anderes ist außer der Treiber und kleiner Änderungen in DX11.
Viele scheinen überhaupt nicht zu verstehen was Gameworks überhaupt ist es ist eine stinknormale Bibliothek. Nvidia bietet dazu Support also Mitarbeiter die zeigen wie man Effekte integrieren kann. Der Entwickler setzt die Effekte ein genauso wie alle anderen Grafikeinstellungen ebenfalls der Entwickler macht. AMD beschwert sich im Grunde das ihre Karten weniger Tesselation Leistung haben und es sowieso Gepatchet wurde und man es von Anfang an in der Ini Umstellen konnte.
AMD hat selbst genug Versuche unternommen für Exclusiv Zwang wie True Audio, Mantel was alles nur als Pr verwendet wurde für die 290 Reihe. Danach war wieder Sparkurs angesagt und man entwickelte nicht mal Mantel weiter. Ms schafte es in weniger Zeit eine schneller Api fertig zu bekommen. Das heftige ist das DX12 nicht an AMD GPUs angepasst ist, trotzdem aber deutlich schneller ist. Dann der Gefakte Mantel Starswarm Benchmark wo Nvidia das gleiche mit einem Treiber update geschafft hat. Nach nicht mal einem Jahr hat man Mantel dann unfertig Eingestellt weil ja DX12 kommt ist ja die begründung. Dann braucht man also auch kein Vulcan oder? weil ja Dx12 da ist man hat sich ganz einfach aus der Affaire gezogen um weiter den Sparkurs zufahren. AMD hat inzwischen ihr Software Team zusammen Geschrumpft und anscheind ist das ja egal denn wenn irgend was schlecht läuft wie WOW z.b. dann ist es Gameworks. Ah WoW wurde ja auf Gameworks upgedatet da hat ja AMD wieder eine Ausrede und alte Benchmarks zählen ja nicht wie in Projekt Cars das ganz plötzlich schlecht lief wegen Gameworks.
Was sollen sie auch sonst anderes machen zugeben das sie eventuell schlecht gearbeitet haben? Solange es Gameworks gibt wird AMD ihrer Fehler auf Nvidia schieben weil AMD mit einem sehr kleinen Softwareteam natürlich keine Fehler macht.

Cat Toaster (unregistriert) 3. August 2015 - 7:03 #

Ja, ganz schlechte Verlierer. nVidia gibt dagegen immer aus freien Stücken zu innovative Speichertechnologien zu erfinden die Segmentiert sind und addiert die Segmentbandbreiten einfach kurzerhand damit es niemand merkt.

nVidia gibt zu auf einer Präsentation (Kepler) mit einer Holzattrappe eines neuen Produkts rum zu fuchteln das offenbar noch nicht so weit ist. Zum Wohle seiner Aktionäre.

nVidia schrieb auf alle Produktschachteln drauf Kepler könne DX11.1, konnten aber nur DX11, der böse Mitbwerber konnte sogar 11.2.

Das legendäre "nVidia: Fuck You!" Zitat von Linus Torvalds das nVidia die schlechteste Hardwarefirma seit mit der er JEMALS im Linux-Umfeld gearbeitet habe entbehrt natürlich auch jeder Grundlage.

nVidia "neuer" Tegra ist 5x mal schneller als sein Vorgänger, darauf kommt man wenn CPU- und GPU-Mehrleistung einfach kurzerhand addiert.

Reihenweise abgerauchte Mobil-GPUs (Fermi) zu denen man sich nicht nie bekannt hat, ja bei nVidia fühlt man sich richtig wohl.

Immerhin ruft nVidia aktuell, konsequent und weltweit alle Shield-Tablets wegen Brandgefahr zurück.

http://www.heise.de/newsticker/meldung/Nvidia-Grafikchips-mit-Lebensdauerproblemen-Update-185737.html
http://www.heise.de/newsticker/meldung/GTC-Gezeigte-Fermi-Karte-war-eine-Attrappe-808570.html
http://www.heise.de/newsticker/meldung/Torvalds-zeigt-Nvidia-den-Stinkefinger-1619616.html
http://www.heise.de/newsticker/meldung/Nvidias-Tegra-3-Schneller-schoener-sparsamer-1375313.html
http://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html
http://www.heise.de/newsticker/meldung/Brandgefahr-Nvidia-ruft-weltweit-alle-Shield-Tablets-zurueck-2766517.html

AMD hat mit Mantle gezeigt was mit einer gescheiten API möglich ist. DANACH hat nVidia angefangen mit seinem Wundertreiber an der DX11-Performance seiner Karten zu schrauben. DANACH nahm DX12 erst richtig Fahrt auf bzw. wurde überhaupt erst angekündigt. Man könnte meinem zum Wohle aller.

GameWorks-Bibliotheken sind "Blackboxen" bei denen die Entwickler eben keine Ahnung haben was sie en detail da eigentlich einbauen, geschweige denn Zugriff auf den Quellcode haben. Bei dem Programm geht es um Sponsoring und Werbung.

AMD ist nicht ohne Grund auf "Sparkurs" bei sieben Milliarden miesen in acht Jahren. Kunden wie Du werden in spätestens einem Jahr dann wohl auch erlöst sein von AMDs "Gejammer" und Innovationskraft (HBM!, Mantle, FreeSync) und nur noch beim ehrlichen Marktführer kaufen können. Glückwunsch!

Hendrik 28 Party-Gamer - P - 105030 - 3. August 2015 - 7:33 #

Na hoffentlich nicht. Die Karten sind jetzt schon teilweise überteuert.

Cat Toaster (unregistriert) 3. August 2015 - 8:19 #

Weil sie halt können.

Wobei bei AMD freilich auch nicht alles nur wunderbar ist, nur solche Klopper wie bei nVidia finde ich da in den letzten fünf Jahren nicht einen.

Jadiger 16 Übertalent - 5509 - 4. August 2015 - 0:40 #

Du schreibst sehr viele Halbwahrheiten.
Shild sind nur die Juli Serien Nummern betroffen nicht alle! Außerdem ist das ein freiwilliger Rückruf ohne Beschwerden. Was ist daran negativ negativ wäre Gewesen zu warten was passiert oder gar es zu vertuschen.
Kepler kann DX11.2 alle Spiele relevanten Fähigkeiten und es sind Spiele Karten wurde ganz klar gesagt.
Linux Treiber von Nvidia sind deutlich besser wie die der Konkurrenz oder warum war wohl Nvidia der erste Partner von Steam Os.
Tegra hat die schnellste Mobil GPU Leistung überhaupt und darauf kommt man nicht wenn man sie addiert und das zu einem Spotpreis. Vergleichbare Gpu Leistung kostet 500 Euro aufwärts und bekommt kein Grid oder gar Spiele wie Half Life 2.

Du äußerst dich zu keinem Punkt zu Projekt Cars und AMDs aussage warum wohl nicht, glaubst du selbst als AMD Fan das es gelogen ist.
Nvidia macht für Gaming mehr als AMD, PC spiele haben Features die AMD sich ganz einfach spart. G-sync kam vor Freesync also sehr inovativ etwas zu kopiern und AMD kann es sich überhaupt nicht mehr Leisten exclusiv etwas zubringen das ist auch schon der einzige Grund warum es Free ist bei 20% Marktanteil gegen über 60%. Nvidia macht Geforce Experience, DSR usw. AMD machte das alles einfach Nach eigene Ideen hatte AMD nicht und Mantel war einfach ein Versuch das eigene DX11 Treiber Problem loszuwerden weil sich die Beschwerden häuften.

Zum Preis viele behaupten AMD sei viel billiger zum Release sind AMD Karten alles andere als Günstig. Eine 290x kostet 600 Euro mehr als eine 980 zu release. Die 290 kostet 450 Euro das sind fast 100 Euro mehr als eine GTX970! Da AMD aber keine Karten verkauft wenn sie mehr kosten fallen die Preise, ganz normal im Markt, aber kann AMD die Preise verlangen machen sie es auch. Die 7970 kostet auch 550 Euro bis zum release von Kepler dadurch viel die Karte auf 350 Euro weil dort die 670 lag die aber schneller war. Deshalb kam eine OC Version direkt von AMD die GHZ Edtion um mit der GTX 680 mithalten zu können keine 5 Monate nach release. Die 290 kostet auch bis zu Maxwell viel zuviel und heute machen sie einfach eine Refresh Version wie die 7970Ghz war und verlangen fast wieder die Preise vor Maxwell. Weil fast alle Magazine Stock Karten Benchen was das Ergebnis verfälscht! Man bekommt fast nur OC Karten zu kaufen und das Taktpotenzial ist bei AMD wesentlich schlechter wie auch das Verhältnis von Mhz plus zu Fps. Was bedeutet AMD geht ab Werk sehr ans limit der GPUs das genaue gegenteil macht Nvidia die achten auf das Watt Verhältnis. Eine GTX970 läuft mit 1170 Mhz boost Stock, das Oc potenzial liegt bei minimum 1350 bis 1560 Mhz 24/7. Ab 1400 Mhz ist sie schneller wie eine 980 und jetzt Oc mal eine 390 und 1400Mhz Version gibt es einige zukaufen der GTX970.
Im High-End Markt ist es noch wesentlich heftiger Fury X packt mit Wasserkühlung gerade mal 67Mhz Oc und es wirkt sich kaum aus. Im Gegensatz dazu hat eine GTX980ti 200Mhz bis 300Mhz Oc potenzial hat und skaliert gut. Übrigens die Fury X teurer wie eine GTX980ti also was ist daran billig! Jetzt könnte ich noch sagen das viele sich Aufregen wegen dem Fiepen der Wasserkühlung, wo AMD übrigens keinen Umtausch gewährt wie Nvidia freiwillig beim Shild und das Betrift alle release Fury X Karten. Erst die jetzigen Produzierten haben deutlich reduziertes Kühlungs fiepen, es gibt aber immer noch die alten Karten im Handel und den Umbaukit werden die wenigsten hin bekommen.

Beide Firmen wollen nur unser Geld da ist garantiert keiner besser aber es geht nicht das man ständig seine eigenen Fehler auf die Konkurrenz schiebt.
Sie haben nicht mal Beweise und fast zu jedem Spiel kommt so ein Spruch von AMD wo man behauptet bei uns läuft es nur so schlecht wegen der Konkurrenz.
Natürlich kommt das jetzt ist ja nicht schon seit release bekannt weil AMD will ja Grafikkarten verkaufen.
Ich hatte vor meiner GTX970 die übrigens auf 1516Mhz läuft eine 290 die 460 Euro gekostet hat weil ich mir das bessere Produkt kaufe und das hat seit Jahren schon Nvidia. Es war auch klar das mit einem neuen Windows DX12 kommen wird und die Meldungen sind um einiges älter wie alles über Mantel.

Ps: Warum hat AMD nicht zu Autosports Grid gesagt warum eine GTX770 schneller ist wie eine 290x. Vielleicht wäre es dann einigen Aufgefallen das es da kein Gameworks gibt? Oder dei schlecht Leistung in allen AC teilen vor AC U mit MSAA kam bestimmt auch von Gameworks nur gab es das bei den Vorgängern nicht.

Cat Toaster (unregistriert) 4. August 2015 - 7:38 #

Project Cars ist EIN Spiel das bekanntlich übermäßig wie unerklärlich auf AMD-GPUs underperformt weil der Entwickler es offenbar so wollte oder nicht besser konnte. Ich weiß nicht was man dazu mehr sagen soll und warum es als Beispiel für eine Gesamtsituation dienen muss die nicht existiert.

Du liest die Quellen nicht oder Du verstehst Sie nicht oder Du willst Sie nicht verstehen und Du setzt keine Kommas.

Wo ist denn bitte in "Grid Autosport" eine GTX770 schneller als eine 290X?

http://www.computerbase.de/2014-07/grid-autosport-benchmarks-4k-ultra-hd-nvidia-amd-grafikkarten/

Und wen interessiert wie die Performance zwei Wochen nach Release und einem Treiber-Update ist?

Meine 980Ti läuft sogar auf 1526MHz mit ECHTEN 6GB VRAM....MIMIMIMI. :) Meiner ist länger, dicker und schöner! Bei den Preisen könnte man erwarten das der Hersteller selbst rausholt was in der Hardware steckt statt sie 50% zu untertakten nur sind sie dann freilich nicht mehr so "sparsam" und "leise".

nVidia ruft alle 8"-Shields zurück die sie jemals hergestellt haben laut Quelle. Selbst nVidia würde intern sagen dass dies nicht "ganz so gut" ist für die Kasse.

Kepler beherrscht Direct 11.0 und nicht mehr. Das ist nicht schlimm solang man nicht etwas anderes auf seine Schachteln druckt und in seiner Software ausweist und der ganzen Welt erzählt es sei anders. Wie etwa mit Holzattrappen und den 4GB VRAM der 970.

http://www.heise.de/newsticker/meldung/Nvidias-Kepler-GPUs-nicht-vollstaendig-zu-DirectX-11-1-kompatibel-1754119.html
http://www.heise.de/newsticker/meldung/DirectX-11-1-Hat-Nvidia-bewusst-getrickst-1755457.html

Was Du beharrlich nicht verstehen willst ist das ich nicht sage das nVidia schlechte Produkte und Technologien entwickelt, sondern das ich es nicht Ordnung finde dass sie diese mit Lügen und Falschaussagen bewerben. Immer wieder.

Aber wie gesagt, das wird sich bald erledigt haben.

Thomas Barth (unregistriert) 3. August 2015 - 8:52 #

AMD: "Nvidia sabotiert Leistung unserer und eigener CPUs"
Nvidia: "Gar nicht wahr, wir handeln nur im Interesse des Wachstums"
Linus Torvald: "Nvidia, fuck you!"
Kunde 1: "AMD ist ein schlechter Verlierer!"
Kunde 2: "Nvidia verkauft nur überteuerte Sachen!"

Microsoft: "Sony, Nintendo und wir machen einen guten Job"
Sony: "Microsoft, Nintendo und wir machen einen guten Job"
Nintendo: "Sony, Microsoft und wir machen einen guten Job"
Kunden: "Das ist voll der Konsolen-Krieg!"

Cat Toaster (unregistriert) 3. August 2015 - 9:52 #

Und alle wollen nur unser Bestes! :)

blobblond 20 Gold-Gamer - P - 24478 - 3. August 2015 - 19:48 #

Klar!
Das Geld!

Nokrahs 16 Übertalent - 5996 - 3. August 2015 - 11:07 #

Haha, sehr gut!

Mitarbeit