AMD wirft Nvidia Sabotage bei Optimierung vor

Bild von Stefan Schmitt
Stefan Schmitt 984 EXP - 12 Trollwächter,R8,S3
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Reporter: Hat Stufe 6 der Reporter-Klasse erreichtKommentierer: Hat 100 EXP mit Comments verdientVorbild: Hat mindestens 100 Kudos erhaltenSammler: Hat mindestens 50 Spiele in seiner SammlungProfiler: Hat sein Profil komplett ausgefüllt

9. Juni 2014 - 21:50

Der Grafikkarten-Hersteller AMD wirft seinem Konkurrenten Nvidia vor, sie an der Treiberoptimierung für Spiele zu hindern, die Nvidias Programm Gameworks nutzen. Betroffen sind Neuerscheinungen wie  Watch Dogs, Assassin's Creed 4 - Black Flag und Batman - Arkham Origins. Entwickler erwerben mit Gameworks eine Lizenz an verschiedenen Nvidia-Technologien wie TXAA und ShadowWorks, die eine große Bandbreite grafischer Funktionen bieten und aufwerten. Es ermöglicht beispielsweise eine realitätsnahe Darstellung von Rauch, Blitzen oder anderen Umwelteinflüssen.

Der normale Prozess der Grafik-Optimierung wird durch AMDs Gaming Scientist Richard Huddy gegenüber Computerbase wie folgt beschrieben: Sollte es Verbesserungsbedarf geben, werde der Entwickler gebeten, den Quellcode bereitzustellen. Als Beispiel führt er die Unreal Engine von Epic an. Der Entwickler stelle bereits seit Monaten den Quellcode zur Verfügung, ohne den viele Treiberoptimierungen nicht möglich gewesen wären. Der Knackpunkt: Durch die Nutzung von Gameworks existiert dieser Quellcode nicht, weshalb AMD nur auf die sogenannten Binaries zurückgreifen kann. Jedoch bergen diese die Gefahr, dass sie noch kurz vor Veröffentlichung des Titels geändert werden können. Eine Treiberentwicklung sei so zwar vor Erscheinen des Spiels möglich, allerdings auch riskant.

In einem Gespräch mit Forbes äußert Robbert Hallock, Product Marketing Manager bei AMD, darüber hinaus die Sorge, dass auch nach Erscheinen des Spiels unsicher sei, ob AMD seine Treiber verbessern könne. In dem Artikel wird darüber hinaus gezeigt, dass die Grafik eindeutig für Nvidia-Karten optimiert ist. AMDs Flaggschiff Radeon 290x kann kaum mit der deutlich günstigeren Nvidia-Alternative GTX 770 mithalten. Während der Vorwurf der Sabotage dahingehend falsch ist, dass es AMD auch weiterhin möglich ist, seine Treiber zu verbessern, stellt sich die Frage, ob Gameworks dem Spielemarkt mehr hilft als schadet.

Stefan Schmitt 12 Trollwächter - 984 - 9. Juni 2014 - 21:52 #

Auch wenn der Beitrag das Thema zusammenfasst, gibt es gerade bei Forbes echt viele weitere interessante Informationen. Ist dementsprechend aber auch ein langer Titel.

Mitunder wird die Frage gestellt, ob eine Abhängigkeit der Hersteller von Nvidia und ein schwaches AMD dem Spielemarkt nicht sehr schaden kann. Nur, falls noch mehr Interesse besteht.

Alex Althoff 20 Gold-Gamer - 20926 - 9. Juni 2014 - 22:03 #

Frage ist doch, warum die Hersteller auf den Gameworks Zug aufspringen und somit Nvidia mehr unterstützen als AMD.
Wenn AMD den Quellcode ihrer Features offenlegen, mag das für die einen oder anderen gut sein. Aber die Konkurrenz muss nicht unbedingt da mitaufspringen. Nvidia bezahlt die Mitarbeiter das die sich anstrengen ihre Produkte zu optimieren und AMD will das dann kostenlos auch haben? Um das in den Automarkt zu bringen: Opel will von Mercedes die Technik des Automatischen Drive-Konzepts ohne dafür in der Entwicklung einen Cent dazugezahlt zu haben. Meine Arbeit bleibt auch meine und wird nicht einen anderen gegeben der mir nix bezahlt hat!

GG-Anonymous (unregistriert) 9. Juni 2014 - 22:16 #

Nvidia bezahlt doch dafür, wenn Spiele ins GameWorks Programm kommen.

Die Entwickler machen das doch, weil sie da halt auch Geld für erhalten. Und sie erhalten im Gegenzug ja auch noch gewissermaßen Werbefläche.

Schließlich hat man bei jeder Treiberinstallation den fetten Werbebanner von Batman, WatchDogs, Splinter Cell und Co..

ChuckBROOZeG 19 Megatalent - 18947 - 9. Juni 2014 - 22:40 #

Ja und was ist daran unlauter?
Werbung wird bezahlt.

Es reicht in keiner Branche ein ähnliche Produkt mit ähnlichen Qualitäten auf dem Markt zu haben und nur ein Bruchteil des Werbeetats vom Konkurenten zu nutzen. Damit bleibt man der Underdog.

rAmbAzAmbA 17 Shapeshifter - 7390 - 9. Juni 2014 - 22:24 #

Wieso kostenlos? AMD muss selber optimieren (Kosten), kann es aber nicht bzw. nur eingeschränkt.

Alex Althoff 20 Gold-Gamer - 20926 - 9. Juni 2014 - 22:32 #

Und das ist nun Nvidia Schuld oder doch eher der Hersteller die AMD nicht den Code geben? Für mich ist das ein Versuch AMD an den Sourcecode von PhysX und TXAA zu kommen. Weil genau diese Funktionen im Gameworks Code stehen. Und die neuen Konsolen sollten doch laut dem AMD CEO eine bessere Performance für AMD-PC Komponenten bringen? Da sollten doch die Spiele im Vorfeld optimiert sein? Nun doch nicht.

Cat Toaster (unregistriert) 9. Juni 2014 - 23:16 #

Da GPU-PhysX vollständig in CUDA integriert ist scheint mir das völlig an den Haaren herbei gezogen, da AMD auf OpenCL setzt und selbst eine zwei Jahre alte 7970 mit einer Titan den Boden aufwischt. Zudem funktioniert PhysX auch auf CPUs, wird hier jedoch von nVidia künstlich ausgebremst.

Zudem, welche Marktrelevanz hat PhysX? Auf Konsolen 0, auf PCs in etwa jene von Triple-Screen-Gaming, TrackIR und 3D. Das interessiert ein paar Enthusiasten, ist für den Massenmarkt jedoch vollständig irrelevant.

Konsolenhardware der aktuellen Generation basiert vollständig auf x86 und GCN. Das Software dann auf PCs mit x86 und GCN plötzlich schlechter performt als auf nVidia-GPUs und das auch nur bei "nVidia gefördertern Titeln" hat kein "Geschmäckle"?

Dir ist aber schon klar, dass Chris Roberts sich durchaus über die Hawaii-GPUs gefreut hat die AMD für CIG hat springen lassen im Rahmen der Star Citizen-Entwicklung und die Unterstützung für die Mantle-API in der CryEngine, TrueSound, Crossfire und Eyefinity-Support wird AMD wohl auch ne Kleinigkeit kosten.

Umgekehrt kenne ich keinen BF4-Spieler mit nVidia-GPU der rumjammert weil das Spiel AUCH Mantle unterstützt. Ich konnte es zumindest mit meiner 780 und DX11 wunderbar spielen.

Alex Althoff 20 Gold-Gamer - 20926 - 9. Juni 2014 - 23:35 #

Eben. Auf AMD Seite wird bei jedem Spiel geheult das für Nvidia vom Hersteller! nicht von Nvidia optimiert wurde. Und dann wird ein Spiel für AMD optimiert und Nvidia bringt wenig drauf einen Patch der dann wieder die AMD Optimierung für Nvidia User teils aufhebt und dann besser läuft. Siehe BF4.
Nvidia bremst auch nicht künstlich PhysX aus sondern haben damals die Hersteller gekauft. Da ist es ihr Recht! als Besitzer das auch für sich zu nutzen. Das Havok selten genutzt wird, ist ebenso die Schuld der Hersteller. Niemand schreibt denen was vor. Warner ist hingegen ein PhysX Fan und deswegen haben die Titel da alle PhysX Unterstützung. Andere hingegen nur TXAA. Andere lassen es und nutzen die extra Features nicht.

Und Roberts hat auf der AMD Vorstellung von AMD geschwärmt. Wenig später war er bei Nvidia und sagte da dasselbe in grün und PhysX, TXAA und Co genutzt wird.
http://cdn2.wccftech.com/wp-content/uploads/2013/10/NVIDIA-Star-Citizen.jpg
Für ihn waren beide Veranstaltungen Werbeplattformen ;)

Decorus 16 Übertalent - 4246 - 9. Juni 2014 - 23:48 #

"Auf AMD Seite wird bei jedem Spiel geheult das für Nvidia vom Hersteller! nicht von Nvidia optimiert wurde."
Ich glaube, du überschätzt die Entwickler da ein wenig. Ohne Leute von Nvidia oder AMD wird nicht viel Optimierung im Hinblick auf bestimmte Karten möglich sein.

Cat Toaster (unregistriert) 10. Juni 2014 - 1:34 #

Wo wird denn bitte auf AMD-Seite bei jedem Spiel geheult? Lass doch einfach mal den polemischen wie unwahren Unfug weg.

PhysX ist so bedeutungslos wie es eben ist, weil nVidia es so möchte. Klar können sie das selbst entscheiden. Ändert nur nichts an Deiner unsinnigen Aussage AMD "interessiere sich nur für das PhysX-KnowHow und einen proprietären Kantenglättungsmodus", weil wir mit FXAA, MSAA und SSAA noch nicht genügend Kantenglättungs-Modi haben und PhysX völlig irrelevant für den Massenmarkt ist. AMDs MLAA interessiert mich in etwa genauso wenig wie nVidia´s TXAA. Nur MLAA funktioniert ohne das ein Programmierer das extra einbauen muss, ist dafür aber auch gerade mal besser als gar keine Kantenglättung.

Weisst Du welcher AA-Modus für die Texturqualität der schlechteste ist? TXAA -> http://www.3dcenter.org/news/nvidias-txaa-gute-kantenglaettung-und-bildruhe-aber-doch-wieder-ein-starker-weichzeichner

Auf Texturmatsch und Weichzeichner stehe ich nicht, egal von welchem Hersteller. Nimmst Du den freiwillig nur weil der nVidia-Exklusiv ist?

Natürlich war Chris Roberts auf beiden Veranstaltungen, wo ist denn da bitte auch ein Nachteil wenn alle Seiten versorgt werden? Darum geht´s doch, dass nVidia genau dies unterbinden will...Das ist natürlich nachvollziehbar, aus Kundensicht jedoch kaum zu begrüßen.

ChuckBROOZeG 19 Megatalent - 18947 - 9. Juni 2014 - 22:46 #

Ähm AMD muss selber Optimieren? Und was machen die nVidia Angestellten die bei den Spieleherstellern sind um zu optimieren? Unbezahlt beim optimieren zuschauen?

Offensichtlich ging der Plan mit Mantle nicht wirklich auf und die Spielehersteller sehen das Angebot von AMD nicht als gut genug an so das sie sich lieber an nVidia hängen.

Es liegt an AMD das zu ändern.

Klar wäre es für die Spieler besser wenn beide alle ihre technologien offenlegen würden (was beide aber nicht machen auch die heilige Kuh AMD nicht) und somit allen auf jeder Hardware alles zur Verfügung stehen würde, aber was nicht ist kann man nicht ändern.

Alex Althoff 20 Gold-Gamer - 20926 - 9. Juni 2014 - 22:55 #

Genau. Was AMD grad macht ist das denken der Piratenpartei: Alles open und die Kosten tragen die Entwickler. Wozu noch was zahlen, wenns ein anderer gemacht hat? Klar das Nvidia ihre Sachen schützt. Mach ich, macht mein Chef, macht jeder!

Cat Toaster (unregistriert) 9. Juni 2014 - 22:44 #

nVidia stellt Geld, Entwicklungstools, Hardware und KnowHow. So wie Intel mit seinen Compilern dies bereits bereits im CPU-Segment vorgemacht hat. Wie auch AMD im Gaming-Evolved-Programm macht.

Das AMD etwas "kostenlos" haben will sagt keiner. Es geht vielmehr darum, dass jeder Engine-Hersteller im puren Eigeninteresse den GPU-Herstellern den entsprechenden Source-Code bereitstellt damit diese ihre jeweiligen Optimierungen vornehmen können. Ob der Engine-Hersteller die dann implementiert bleibt ihm überlassen, in der Regel macht er es im Sinne aller Beteiligten. Mit "Gameworks" möchte nVidia die Tür einseitig schließen. Dies beklagt AMD.

Alex Althoff 20 Gold-Gamer - 20926 - 9. Juni 2014 - 22:54 #

Gameworks ist Nvidias Portal für die Entwickler das diese ihre Produkte für die Karten leichter optimieren können. Die sagen ja nicht, das die Hersteller ihre Software für AMD schlechter machen sollen. AMD müsste auch nur leichter ihre Treiber anpassen. Tun die aber nicht und wenn dann alle 4 Monate mal. Nvidia macht das zu jedem neuen Spiel instant. Aber muss ja einer Schuld sein.
Ich bin zwar Nvidia Fan aber selbst wenn ich neutral mal sage:

Die Firma die da nicht mithalten kann, hat auf dem Markt nix zu suchen. Wenn die Grünen das wären und AMD ihre Sachen richtig machen, würde AMD gekauft werden.

AMD muss halt mal den Geldbeutel aufmachen und investieren. Aber die tanzen auf 100 Hochzeiten aber nix richtig. APU zu heiß, Treiber nicht optimal, CPU mit extrem Stromverbrauch ohne Leistung zu haben, Konsolen die selten in Multiplattformtitel 1080p/60 FPS mit der AMD Hardware liefern. Dann muss man sich halt von 1-2 Sachen trennen und dafür es richtig machen. Dann wäre auch mal Konkurrenz da. Aber so nun durch die Hintertür...da sind die mir noch unsympatischer als sie es zuvor waren. In den Worten vom ehemaligen Xbox CEO: DEAL WITH IT!

Cat Toaster (unregistriert) 9. Juni 2014 - 23:24 #

Es wäre halt schön wenn wir wenigstens bei den Fakten bleiben könnten. AMD haut für jeden großen Titel umgehend Hotfix-Treiber raus wie nVidia auch, zuletzt für Watch_Dogs und Murdered Soul Suspect im 14.6er Catalyst am Tag des Releases von Watch_Dogs (einem nVidia-Sponsored-Titel), eine Woche vor dem Release von Murdered:

http://www.computerbase.de/2014-05/amd-catalyst-14.6-legt-in-watch-dogs-zu/

Das man nicht mehr jeden Monat einen Treiber durch die WHQL-Prüfung prügelt, ganz ehrlich, wozu?

Linus Torvalds über die großartige Zusammenarbeit mit nVidia noch sachlicher als Du -> http://www.youtube.com/watch?v=iYWzMvlj2RQ

Deep Thought 15 Kenner - 3159 - 10. Juni 2014 - 2:04 #

> "Opel will von Mercedes die Technik des Automatischen Drive-Konzepts ohne dafür in der Entwicklung einen Cent dazugezahlt zu haben."

Nicht alles, was hinkt, ist ein Vergleich ;) Die derzeitige Situation ist im übrigen etwas anders. Um es auch mal mit etwas Hinkendem zu versuchen:

Wie wäre es bsw., wenn Mercedes Kraftstoffhersteller plötzlich dafür bezahlen würde, einen Kraftstoff zu entwickeln, der zwar besonders gut mit ihren KFZ funktioniert, andere Motoren aber zum Stottern, sporadischen Ausgehen oder ähnlichem bringt? Dann bezahlt Mercedes auch die Kraftstoffhersteller für eine Leistung, die ihnen zugute kommt. Und Entwicklungsaufwand fällt bei Mercedes ebenfalls an, damit ihre Kunden das bestmögliche Erlebnis ("The way it's meant to be driven") erhalten. Wird es aber damit richtig? Und wenn andere PKW-Hersteller Einblick in die Kraftstoffzusammensetzung haben wollen oder tiefergehende Informationen zum Motormanagement von Mercedes, ist das dann auch Trittbrettfahrerei?

In den meisten Staaten dieser Welt gibt es Gesetze gegen unlauteren Wettbewerb. Marktwirtschaft braucht Wettbewerb, um funktionieren zu können. Wenn ein marktbeherrschender Teilnehmer sein Marktmacht dazu nutzt, andere Wettbewerber VORSÄTZLICH (hierfür reicht billigendes Inkaufnehmen) zu schädigen, dann hat eben dieser Markt ein fundamentales Problem. Am Ende werden alle Verbraucher (um bei dem Beispiel zu bleiben: auch die Mercedes-Kunden) die Rechnung zahlen.

Nvidia ist aber gerade dabei, eine Situation zu schaffen, die diesen Wettbewerb ausschließt. Das kann eben nicht gut sein. Im übrigen trifft das natürlich auch auf alle Bemühungen seitens AMD zu, die dieses Ziel verfolgen. Darüber kann man sich an anderer Stelle dann auslassen. Bzgl. dieser News bleibt es allerdings dabei, dass Nvidia sich schädlich für die Verbraucher verhält. Und das anzuprangern (auch wenn es vom einem Konkurrenten kommt), kann niemals falsch sein.

Solala (unregistriert) 10. Juni 2014 - 11:08 #

Ich glaube, es ist eher so:
Mercedes hilft Kraftstoffhersteller, einen Kraftstoff zu entwickeln, der besonders gut mit Mercedes-Motoren läuft - Punkt. Das ist der Nachteil von Optimierungen. Du optimierst für ein System. Dadurch wird das andere nicht zwangsläufig schlechter, sondern sogar besser, aber eben nicht so gut, wie das optimierte.

Der Punkt ist doch der: Es zwingt keiner irgendjemanden, diese Programme zu nutzen. Die Spiele-Entwickler tun es aber trotzdem, entscheiden sie für AMD oder Nvidia und optimieren ihr Spiel. Solche Optimierungen/Programme kosten AMD und Nvidia Geld. Nicht mal Marketing-Geld oder sie "zahlen" den Entwicklern auch nichts, sondern sie stellen kostenlos/kostengünstig Spezial-Knowhow zur Verfügung. Wenn da vier Nvidia-Entwickler ein halbes Jahr vor Ort bei einem Ubisoft-Titel arbeiten, dann kann man sich das ja mal zusammenrechnen. Plus Weiterbildung, interne Entwicklungen, Dev-Tools, Analyse usw. Und dabei reden wir noch nicht von der Treiber-Optimierung. Die kommt erst später durch den Grafikkartenhersteller.

Die Entwickler-Programme von AMD und Nvidia unterscheiden sich im Umfang und Qualität. Und da Spiele-Entwicklung teuer ist und finale Optimierung noch viel mehr, nehmen große Entwickler gerne die Hilfe der Grafikkarten-Hersteller an. Und anscheinend ist das Nvidia-Programm für viele Entwickler attraktiver. AMD/ATI hatte schon immer gute Hardware, aber bei der Software hinkten sie immer etwas hinterher. Mittlerweile etwas besser, aber das Gamedev-Programm von Nvidia ist größer. AMD hat einfach nicht die Ressourcen, die Nvidia hat. Und Nvidia ist gezwungen, viel stärker proprietär zu entwickeln, weil sie nur Grafikkarten für einen schwindenden PC-Markt machen. AMD hat Grafikkarten, CPUs, APUs, Konsolen, Tablets ... und dann für den Einzelbereich zu wenig Ressourcen - verglichen mit der Konkurrenz (Intels Dev-Programm ist größer, Nvidias ist größer, ARM ist größer). Das ist ja auch die Idee bei den ganzen Offener-Standard-Geschichten: Sollen sich andere drum kümmern (+ Vorteile für alle).

Am Ende laufen AMD-optimierte Spiele auf Nvidia genauso bescheiden wie Nvidia-optimierte Spiele auf AMD. Nur mit dem Unterschied, dass Nvidia mehr Ressourcen und Geld für sein Entwickler-Programm zur Verfügung stellt und es daher mehr Release-optimierte Spiele gibt. Aus der Situation gibt es nur zwei Auswege: Gar nicht mehr optimieren, dann läuft's bei allen gleich schlecht. Oder AMD muss mehr Geld ins Dev-Programm stecken. Jetzt rumheulen, dass sich Spiele in der Optimierungsphase ständig ändern, dass Nvidia ihnen nicht Zugriff auf proprietäre Kern-Technologien gibt und dass sie erst nach dem Release des Spiels optimieren können, ist kindisch.

Deep Thought 15 Kenner - 3159 - 10. Juni 2014 - 12:41 #

Ob direktes Geld fließt, ist unklar. Gerüchte besagen durchaus, dass Nvidia Entwickler von AAA-Titel finanzielle Anreize schafft, ihr "Produkt" zur Optimierung zu nutzen. Gezwungen wären die Entwickler zwar dann immer noch nicht, da - wie Du so schön anmerkst - Spieleentwicklung teuer ist, ist ein solches Angebot dann aber doch sehr verlockend ...

Ob dem so ist oder nicht, lässt sich natürlich als Aussenstehender schwer beurteilen. Es spielt aber letzten Endes auch keine Rolle. Denn, wenn sich Nvidia nicht versprechen würde, die Konkurrenten zu behindern, wären die Kosten, die für sie allein durch R&D entstehen, rausgeworfenes Geld.

Und genau deshalb sind Deine weiteren Ausführungen zumindest hinsichtlich des Punktes, ob es sich um eine unlautere Form des Wettbewerbs handelt, irrelevant. Als Quintessenz bleibt: für den Kunden (für alle, auch die Nvidia-Kunden selbst) bleibt solcherlei Gebaren einfach nachteilig.

Dass es trotzdem genug Leute gibt, die ein solches Vorgehen als quasi verlängerter Arm der PR-Abteilung von Nvidia rechtfertigen, verwundert mich dann doch stark ...

Und nur der Vollständigkeit halber nochmals: auch alle Bemühungen seitens AMD, Nvidia im Wettbewerb zu benachteiligen, sind ebenso zu bewerten.

ChuckBROOZeG 19 Megatalent - 18947 - 10. Juni 2014 - 16:29 #

Was ist denn bitteschön daran unlauter?
Das wird in der Wirtschaft ständig so gehandhabt und nichts anderes ist das 2 Wirtschaftsunternehmen.
Stell dir lieber die Frage warum AMD das nicht ebenso aggressiv macht, denn machen tun sie es. Btw sowohl das mit dem Geld überweisen als auch das mit neue Technologien nur auf ihrer Hardware gut laufen zu lassen bzw optimierbar machen.
Sollen sie doch Geld dafür bezahlen das Mantle öfter eingesetzt wird als Gameworks oder die Entwickler je nach Graka 2 Renderpfade einbauen.
Wie hat Cat Toaster so schön geschrieben AMD hat doch größere Anteile am Markt dann sollen sie das nutzen.

Was dich eher verwundern sollte ist das jemand aus Prinzip den angeblich kleinen KONZERN! Verteitigen muss bis aufs Messer, am besten weil er der kleinere ist, Anstatt abzuwägen welches Produkt für ihn besser ist und gut damit.
Die Anfeindungen kommen doch in aller Regel aus dem AMD Lager.

Deep Thought 15 Kenner - 3159 - 10. Juni 2014 - 19:44 #

> "Was ist denn bitteschön daran unlauter?
Das wird in der Wirtschaft ständig so gehandhabt und nichts anderes ist das 2 Wirtschaftsunternehmen."

Aus gängiger Praxis wird nicht zwangsläufig rechtens. Und wenn Du meine Beiträge genau liest, sollte Dir klar werden, dass ich vergleichbare Machenschaften bei Nvidia wie AMD gleich kritisch sehe. Es ist dabei aber nicht so, dass aus zweimal Minus zwangsläufig Plus entsteht.

Ich als Verbraucher sehe auch überhaupt keinen Anlass für eines der beiden Unternehmen Partei zu ergreifen. Das überlasse ich dankend anderen. Das einzige, was für mich zählt sind meine Interessen als eben dieser Verbaucher. Und die sehe ich durch solcherlei Vorgehen gefährdet.

Ansonsten kann ich Dir nur empfehlen, Dich mit den Motiven zur Gesetzgebung bzgl. des unlauteren Wettbewerbs (im Kern durchaus auch von Verbraucherschutzinteressen motiviert) auseinander zu setzen. Bildungslücken zu schließen zähle ich dann nicht zu meinen Aufgaben :D

ChuckBROOZeG 19 Megatalent - 18947 - 10. Juni 2014 - 19:54 #

So und nun hast du mit vielen Worten immer noch nicht dargelegt warum es unlauter ist.

Ok das Schlagwort in den Raum stellen kann jeder und dann sagen man solle "Bildungslücken" schließen könnte ich auch als Beleidigung auffassen.

Ich klink mich hier aus das ist es mir nicht Wert.

Deep Thought 15 Kenner - 3159 - 10. Juni 2014 - 20:24 #

Ich habe oben eine generelle Definition bereits geliefert. Wenn aus dieser nicht klar wird, was an Nvidia's Vorgehen unlauter sein könnte, hilft halt nur weitere Recherche von Deiner Seite (oder zumindest das begründete Inzweifelziehen, dass die Kriterien dieser Definiton erfüllt sind), wenn es Dich tatsächlich interessiert. Falls nicht, helfen auch weitere Ausführungen nicht.

Im übrigen hast Du ja selbst nur eine rein rhetorische Frage in den Raum geworfen und Rechtmäßigkeit ohne weitere Argnumentation postuliert (wenn man einmal von Gewohnheitsrecht absieht). So hab ich dann auch eher Zweifel an der Ernsthaftigkeit Deines Diskussionswunsches. Wenn Du Dich allerdings sachlich auseinander setzen möchtest, von mir aus jederzeit gerne.

Gnu im Schuh (unregistriert) 9. Juni 2014 - 22:31 #

Ich gehe spontan davon aus, dass AMDs Mantle API nicht auf die Möglichkeiten von NVidia-GPUs eingehen wird, sondern die Stärken der eignen Produkt ausspielen wird.

Wird wohl mal wieder Zeit, dass Microsoft eine neue Generation von Direct-X rausbringt und den Grafikkartenherstellern dadurch Vorgaben macht, für was sie ihre Grafikkarten optimieren sollen.

Jadiger 16 Übertalent - 4990 - 9. Juni 2014 - 22:36 #

AMD beschwert sich weil sie miese Treiber Performances haben bei den genannten Spielen. Das ihre Top Karten von der GTX 770 geschlagen werden, das ist aber nicht erst seit gestern so sondern liegt wesentlich länger zurück.
Auch Monate nach release ändert sich wenig an den Leistungs Problemen der AMD Karten. Siehe Cod, Ac4 und viele Spiele haben zu start massive Probleme oder gehen überhaupt nicht.
Wie sollte man auch zugeben das man vielleicht selbst Fehler macht. Das Gameworks eine gute Sache ist und Spiele aufwertet und klar wird keiner sagen hier habt ihr den Quellcode für lau.

PS: Mit den AMD Spielen ist übrigens genau anderes rum, bloß das die Nvidia Karten wesentlich einfacher sind anzupassen und es deshalb keine solchen unterschied gibt wie bei AMD.

Alex Althoff 20 Gold-Gamer - 20926 - 9. Juni 2014 - 22:45 #

Aye. Es ist ja nicht nur Ubisoft mit AC und Watch Dogs. Es ist Rockstar, ID, Activision usw. Die kommen weniger gut mit AMD Treibern klar aber besser mit Nvidia. Nun ist Nvidia als Platzhirsch natürlich für die AMD Bosse das Ziel, die haben Schuld. Klar. Kein Geld haben und die Konkurrenz fordern alles offenzulegen. Und morgen bringt der Nikolaus den Osterhasen!

Cat Toaster (unregistriert) 10. Juni 2014 - 3:33 #

Genau. Gerade Rockstar und iD haben uns ja mit ihrer Zahl von PC-Releases förmlich überschüttet in den letzten Jahren und Watch_Dogs konnte ich zuletzt mit einer 290X sogar durchspielen, natürlich nur unter äußerster Pein.

Bisher verfügbare oder angekündigte Titel mit Mantle-Unterstützung sind Battlefield 4, Civilization Beyond Earth, Dragon Age Inquisition, Galactic Civilizations 3, das nächste Mass Effect, Mirror's Edge 2, Plants vs. Zombies Garden Warfare, Sniper Elite 3, Star Citizen und Thief.

Quelle: http://www.golem.de/news/schnittstelle-ueber-40-entwickler-arbeiten-bereits-mit-dem-mantle-sdk-1405-106203.html

Das sind jetzt nicht gerade "Umsatz-Gurken", auf Basis der Frostbite-Engine erscheint somit schon bald der zweite Titel und ich glaube kaum das nach der Implementierung noch irgendein Frostbite-Engine-Titel auf Mantle wird verzichten müssen.

Die Engines von CryTek, EA, Rebellion, Epic und Oxide würde ich jetzt auch nicht als ganz unbedeutend einordnen.

nVidia und Platzhirsch: Dedicated 65 vs 35%, ja, Gesamtmarkt:

AMD 18,30%
Intel 65,10%
Nvidia 16,60%

Kann sich also jeder einen Platzhirsch aussuchen. AMDs Konsolen-GPUs sind da übrigens nicht drin, in beiden Werten nicht. Im Hinblick auf den Spielemarkt sollte man dies entsprechend einordnen. Als Konsument mag einem das Latte sein, als Entwickler ganz sicher nicht.

Vampiro 21 Motivator - P - 30945 - 9. Juni 2014 - 23:01 #

Dem letzten Satz kann ich gar nicht wirklich untershreiben. 1. passt der Begriff Sabotage sehr wohl. Etwas sabotieren heißt ja nicht, es komplett zu verhindern. 2. Was soll denn hilfreich sein, wenn AMD a) seine Treiber nicht mehr im Vorfeld optimieren kann und b) geschlossene Kapseln Bestandteile der Entwicklung werden? Gilt auch für Mantle. Am Ende schaut der Kunde in die Röhre, der sich die Karte vom "falschen Hersteller" gekauft hat, die für diverse Exklusivdeals und "Partnerschaften" sicher auch Geld abdrücken.

Alex Althoff 20 Gold-Gamer - 20926 - 9. Juni 2014 - 23:07 #

Mantle war zwar gut gemeint von AMD und das es offen ist. Was aber nun zur Folge hatte, das DX12 angekündigt wurde (und AMD ja erst letztes Jahr bekräftigte das die nix von DX12 wissen)

Etz haben die in Mantle investiert und die Hersteller gehen lieber weiterhin zur MS Schnittstelle. In dem Fall hat AMD mal was gemacht um den Markt zu pushen aber bleiben in dem Fall auf den Kosten liegen. Mantle bringt ja nur was wenn man eine alte CPU und GPU hat. Bei High End Hardware verpufft das in einem Bereich von 1-2 %.

ChuckBROOZeG 19 Megatalent - 18947 - 9. Juni 2014 - 23:18 #

"Mantle war zwar gut gemeint von AMD und das es offen ist."

Der Witz ist das es bis heute nicht offen ist und schon gar nicht stabil wird aber schön als Beispiel für Offenlegung hergenommen ^^.

Bruno Lawrie 16 Übertalent - P - 5057 - 9. Juni 2014 - 23:05 #

Auf längere Sicht wird AMD trotzdem einen Heimvorteil haben. PS4 und Xbox One werden mittelfristig wieder der Maßstab für neue Games sein, nicht der Highend-PC. Die Spiele werden für die Konsolen entwickelt und am Ende auf den PC portiert. Und beide Konsolen haben AMD-CPUs und AMD-GPUs. Auch bei den Kernen ist das nicht unwichtig, beide Konsolen haben acht CPU-Kerne, während der aktuelle Highend-Home-Core i7 nur vier Kerne hat (er ist trotzdem schneller als ein 8-Core-AMD-Prozessor).

Ich hab mir vor einigen Wochen einen neuen PC zusammengestellt und war eine Weile am hadern, ob ich wirklich eine Intel CPU und eine Nvidia GPU einbaue. Aber gerade der Stromverbrauch bei AMD ist so absurd (max. 85W bei Intel, >250W bei vergleichbarer AMD-CPU), dass ich dann doch darauf gegangen bin. Bin mir nicht sicher, ob ich das bereuen werde.

Cat Toaster (unregistriert) 9. Juni 2014 - 23:49 #

Man darf dabei nur nicht vergessen das die x86-Kerne in den Konsolen bei 1.6GHz keinen Hering vom Teller ziehen während die Desktop-Pendants bei vier Threads mit der mehr als der doppelten Taktrate wuchern können, die Rechenleistung pro MHz liegt ebenfalls deutlich höher. Es ist daher nicht wirklich auszumachen, dass man auf dem PC mehr als 4-Threader der 3GHz-Liga für Konsolenports in FullHD brauchen wird. Das wird auch weiterhin ein A10-6700/i3+HT locker stemmen.

Der PC kann sein Potenzial dann mit 4k, AA-Modi, 120Hz, 3D und den entsprechenden CPU+GPUs erst voll entfalten.

Da auf allen drei Plattformen x86 und GCN verfügbar ist vereinfacht freilich die Entwicklung ungemein und die Tatsache das man auf den Konsolen zu effizienterer x86-SMT-Programmierung verdammt ist um aus den 8-Threads alles rauszuquetschen ist freilich für den PC ein großer Vorteil, zumal so nebenbei nun endlich Dank 64-Bit-Architektur mal mehr als popelige 2GB Arbeitsspeicher in der Breite genutzt werden können.

Bruno Lawrie 16 Übertalent - P - 5057 - 10. Juni 2014 - 11:48 #

In der Theorie ja. Aber da sollten ja auch dank DirectX/OpenGL alle Grafikkarten gleich gut angesprochen werden und das ist auch nicht der Fall.

Von der reinen Rechenleistung ist mein neuer PC um ein Vielfaches schneller als eine PS4, aber trotzdem läuft dort z.B. Watch Dogs besser.

Meine Sorge sind also eher die Entwickler. Wenn da stur auf sechs Kerne optimiert wird, kann das Mehr an Rechenleistung nicht alles rausholen. Hab deswegen auch bewusst etwas mehr ausgegeben und eine CPU mit Hyperthreading genommen, dann sind wenigstens acht Threads parallel möglich.

Cat Toaster (unregistriert) 10. Juni 2014 - 13:14 #

In der Rohperformance sind die Portfolios ja schon gleichwertig bei beiden GPU-Herstellern. AMD hinkt im Bereich OpenGL grundsätzlich hinterher was in meinen Augen eher ein hausgemachtes Softwareproblem ist. Das besteht auch nicht erst seit gestern und wirklich nachvollziehbar ist es nicht. Trotzdem ist es für den Konsumenten nicht so dramatisch als das man Wolfenstein nicht hätte spielen können. Die Engine ist halt etwas seltsam:

So stürzte Wolfenstein in Kombination mit zwei verschiedenen Geforce-Karten (GTX 770 und GTX 560 Ti) sowohl unter Windows 7 und 8.1 mit dem offiziellen Kommentar ab, dass die Hardware nicht die Mindestvoraussetzung erfüllen würde und leitete uns im Anschluss auf die Nvidia-Homepage weiter - vielleicht zwecks Kaufs einer neuen GPU?

Mit AMD-GPUs funktioniert das Multisampling nicht, für das es zudem aus unerfindlichen Gründen keine direkte Einstellungsmöglichkeit im Optionsmenü gibt. Und auch auf Geforce-GPUs ist das Ergebnis durchwachsen: Längst nicht jede flimmernde Kante wird auch tatsächlich geglättet.

Mit einer GTX580 sind die FPS sogar einstellig.

http://www.pcgameshardware.de/Wolfenstein-The-New-Order-PC-257248/Specials/Wolfenstein-The-New-Order-Test-Benchmark-1121737/

Den in der Tat wankelmütigen FPS-Werte auf Radeons kann man mit den entsprechenden Einstellungen beikommen.

Dem mies abgemischten Ton ist jedoch grundsätzlich nicht zu helfen und das kann man ebenfalls keine GPU-Hersteller in die Schuhe schieben.

Mit XML-Gefuchtel und 3rd-Party-Software konnte ich auch Watch_Dogs einigermaßen gut gangbar bekommen. Da es letztlich ein gruseliger Konsolen-Port - egal ob mit AMD oder nVidia GPU ist - lässt sich nicht leugnen. Man muss es denn als politisch gewollt einordnen, denn technisch gibt es keinerlei einleuchtende Begründung (außer das der PC-Markt keine Relevanz für etwas bessers hat).

Wieso sich AMD- wie nVidia-Fanboys meinen da gegeneinander ausspielen zu müssen wird mir ein ewiges Rätsel bleiben. Entwickler wie Publisher freut es freilich wenn sie mit derartigen sinnlosen Debatten aus der Schusslinie sind, als obläge es allein den GPU-Herstellern für eine performance Portierung zu sorgen.

Dennis Ziesecke Freier Redakteur - P - 29583 - 10. Juni 2014 - 5:58 #

Um Fair zu sein: Die Konsolenhersteller haben sich *absichtlich* (aus preislichen Gründen und zwecks Energie/Hitzespargründen) für die kleinsten AMD-Kerne überhaupt entschieden. Die Jaguar-Cores der Konsolen sind bei AMD das, was bei Intel der Atom ist. Und auch wenn der i7 neidlos das flotteste ist, was man sich für sinnvolle Summen kaufen kann, ist ein Vergleich i7 vs. Atom genauso unfair wie i7 vs. Jaguar oder FX vs. Atom. MS und Sony hätten auch Intels Avaton kaufen können, ein Atom-Achtkerner. Der hat nur keine ausreichend schnelle GPU, so dass mindestens Microsoft noch etwas gearschter wäre als sie es eh schon sind ;) .

Dein Stromvergleich im letzten Absatz ist übrigens nicht korrekt, es sei denn, deine "vergleichbare CPU" ist einer der 9000er-FX. Bei einem 8000er-FX kannst du gegenüber Intel zwar trotzdem 50 Watt raufschlagen (unter Last, im Idle sinds 15 Watt) aber eben keine 150+ .. Kritik sollte ja schon fair bleiben - auch wenns offenbar sehr schwer fällt.

Bruno Lawrie 16 Übertalent - P - 5057 - 10. Juni 2014 - 11:59 #

Wenn die Entwickler sauber entwickeln und gut auf den PC portieren, hast du Recht. Aber genau das haben sie in der Vergangenheit nicht immer gemacht, siehe Watch Dogs aktuell. Ich erwarte auf sechs Kerne optimierten Code, der schlampig auf den PC portiert wird.

Was den Stromverbauch angeht: ich hab einen Core i7 4770K als Referenz genommen, nach Benchmarks einen vergleichbaren AMD-Prozessor genommen (Name vergessen, 4,2 GHz, 8 Kerne) und für beide die Spitzenlast als Vergleich genommen. Da kam ich auf die angegebenen Werte. Bei Alltagswerten kann AMD etwas weniger krass im Verbrauch dastehen, aber bei der Spitze sind sie sehr viel schlechter. Da ich einiges mit Videoencoding mache, läuft die CPU auch recht viel auf 100%.

Und mir ist ein leiser Rechner wichtig. Das hat mit Intel auch funktioniert, zusammen mit einer GTX780 ist er sehr leise, auch unter Last beim Encoding oder in Crysis 3. Mit so einem AMD-Heizer wäre das schwieriger gewesen.

Dennis Ziesecke Freier Redakteur - P - 29583 - 10. Juni 2014 - 14:30 #

Es gibt keinen FX mit 4,2 GHz Basistakt. Der FX-8350 hätte 4,2 GHz Turbotakt aber nur 4,0 Basistakt, der 220-Watt-Reaktor 9370 hat 4,4 Gigahertz Basistakt. Wenn du den 9370 als Gegenbeispiel anbringst - Glückwunsch, kein Wunder. Würde aber zu den Zahlen passen. Der 8350 passt hingegen nicht zu den Ergebnissen deiner Messungen. Es sei denn, es wurde unfair gemessen (bei AMD mit Benches die AVX auslasten, bei Intel ohne AVX beispielsweise). Oder bei Intel lief beim Videoencoding nur die QuickSync-Engine, oder oder oder. Aber generell dürfte der AMD unter Last keine 150 Watt mehr verbraten wenn das Testszenario vergleichbar ist.

Bruno Lawrie 16 Übertalent - P - 5057 - 10. Juni 2014 - 14:39 #

Ich hab Listen zu den CPUs im Netz zusammengesucht, mag sein, dass da manches nicht exakt passte, es ging mir eh nur um einen schnellen Vergleich. Aber auch wenn's am Ende 85W vs. 150W ist, wäre meine Entscheidung sehr klar. Weniger Verlustleistung = weniger Abwärme = niedrigere Lüfterdrehzahlen = leiser.

Quicksync war nicht in den Benchmarks berücksichtigt, aber ein zusätzliches Argument für mich. Für schnelle Transcodings für's iPad reicht die Qualität und die Geschwindigkeit ist beeindruckend.

Dennis Ziesecke Freier Redakteur - P - 29583 - 10. Juni 2014 - 15:14 #

Ich will ja auch nichts gegen die wirklich guten Core-i-CPUs sagen, Intel hat da schon was verdammt gutes am Start. QuickSync finde ich auch überzeugend, die geringe Energieaufnahme ist beeindruckend und sogar die iGPU ist mittlerweile gar nicht mehr so mies (nur die Treiberprogrammierer sollten sie mal etwas besser motivieren). Habe selbst einen NUC im Wohnzimmer, der weniger Strom braucht als das alte Mediacenter auf DSP-Basis, mehr Formate beherrscht und nebenbei noch viele Spiele zumindest in 720p darstellt. Per Steam-Streaming auch Luxustitel an denen der PC im Büro knabbern darf (Was schon mal zu Besucherkommentaren wie "Wow, auf meiner PS4 sieht das Spiel aber nicht so gut aus, wo ist denn deine Konsole eigentlich?" führt).

Ich wollte nur darauf hinweisen, dass AMDs FX zwar mehr Strom aber eben nicht SO viel mehr Strom frisst ;) .

ChuckBROOZeG 19 Megatalent - 18947 - 10. Juni 2014 - 16:37 #

Ich finde QuickSync auch beeindruckend, aber mit dem einzigen Freeware h264 encoder (Handbrake) den ich kenne kann man wirklich nur auf Geschwindigkeit gehen. Dateigrößen werden in jedem Falle min 20% eher 35% größer bei gleichen Ratingeinstellungen und 2pass ging gar nicht.

Das ist wirklich nur für den Quick geeignet nicht für n dauerhafte Archivierung und auch nicht wenn man es auf ein Videoportal hochladen will (da aber eher wegen der schlechteren Qualität bei gleichen Einstellungen).

Dennis Ziesecke Freier Redakteur - P - 29583 - 10. Juni 2014 - 16:56 #

Ist ja auch primär für die flotte Umwandlung vom PC zum Tablet/Telefon vorgesehen. Und da passt es super.

ChuckBROOZeG 19 Megatalent - 18947 - 10. Juni 2014 - 19:41 #

Na ja aber gerade Telefone/Laptops haben eins grad selten in Überfluss nämlich Speicher ^^.

Ok HTC zumindest scheint es gerade zu lernen das die Top Phones nen SD Slot echt gut gebrauchen können ^^.

Mein Kommentar war auch eher ein versteckter Hilferuf ob jemand noch ein anderes Programm kennt das als Freeware mit QuickSync arbeiten kann ^^.

Cat Toaster (unregistriert) 10. Juni 2014 - 16:58 #

Kommt halt tatsächlich immer auf den individuellen Anwendungsfall an. Qualitativ kann mich keinerlei GPU-Encoding wirklich begeistern. Nutze VirtualDub mit x264vfw Single Pass CRF 20. Da kann man mit dem Output schon Leben. 2-Pass geht auch, aber irgendwann muss ich mit dem Rechner noch was anderes machen :)

ChuckBROOZeG 19 Megatalent - 18947 - 10. Juni 2014 - 19:38 #

Na ja kommt auf das Material drauf an, bei Filmen/Serien bevorzuge ich crf20 oder alternativ angepasst an die Auflösung bei zb 1920x800 dann 2pass mit 7,5Mbit. Als Encoder dann x264 mit MeGui als Oberfläche oder Handbrake.
Bei Annimation geht auch crf21 ist erstaunlich wie wenig Bitrate sowas braucht.
Und bei Spielemitschnitten ist die Bandbreite ganz weit was da benutzt wird ^^ vdub kommt sicher auch zum Einsatz aber Encodingeinstellungen ist echt abhängig ob es auf Youtube soll oder Archiviert. Also Sachen für Youtube werden ja bei mir 2 mal gamcht, einmal zum Archivieren und einmal für Youtube ^^.

"Qualitativ kann mich keinerlei GPU-Encoding wirklich begeistern."
Ich hatte mal nen Programm das Cuda als Encoder genommen hat ... man war das Ergebnis grausam. Das war aber noch auf meiner GTX260² und ist schon mehr als 4 Jahre her. Ich weiss nichtmal mehr womit ich das gemacht ahb nur das ich vor lauter Artefakten gedacht hab das jedes xvid mit der halben Bitrate noch besser aussieht.
Also im Vergleich dazu ist Quick Sync ein Qualitätsmonster! Ich muss aber halt zugeben das ich es lange nicht mehr versucht habe.

Sgt. Nukem 15 Kenner - 3523 - 17. Juni 2014 - 13:53 #

Mit PhysX hat's nicht geklappt, jetzt versuchen sie's mit Gameworks... ^^

Labrador Nelson 27 Spiele-Experte - - 92268 - 27. Juni 2014 - 18:59 #

Die sollen sich mal nich ins Hemd machen. Beide Unternehmen bremsen sich seit Jahren aus wo sie nur können. Mal ists der eine, mal der andere...

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit
Hemaehn
News-Vorschlag: