AMD: „Der Großteil der 2015 / 2016 erscheinenden DX12-Spiele entstehen mit AMD als Partner“

Bild von Denis Michel
Denis Michel 107515 EXP - Freier Redakteur,R10,S1,C1,A8,J10
Platin-Gamer: Hat den sehr hohen GamersGlobal-Rang 25 erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtIdol der Massen: Hat mindestens 10.000 Kudos bekommenExtrem-Schreiber: Hat mindestens 1000 News geschriebenTop-News-Meister: Hat mindestens 500 Top-News geschriebenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreichtBronze-Jäger: Hat Stufe 5 der Jäger-Klasse erreichtBronze-Archivar: Hat Stufe 5 der Archivar-Klasse erreichtLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Reporter: Hat Stufe 6 der Reporter-Klasse erreichtDiskutierer: Hat 1000 EXP durch Comments erhalten

7. September 2015 - 19:46 — vor 1 Jahr zuletzt aktualisiert

Robert Hallock, Head of Global Technical Marketing beim kalifornischen Chiphersteller AMD, hat sich im Zuge der Diskussion über die asynchronen Shader (siehe unsere Meldung dazu: Aktuellen Nvidia-GPUs fehlt offenbar Unterstützung für ein wichtiges DX12-Feature) auf Reddit zu Wort gemeldet. Er nutzte den Thread, um für AMDs Graphics-Core-Next-Architektur zu werben und merkte auf Anfrage eines Nutzers an, dass der Großteil der bis Ende dieses Jahres und für das nächste Jahr erwarteten DX12-Spiele in Partnerschaft mit AMD entwickelt werden.

Ihr werdet feststellen, dass die große Mehrheit der DX12-Spiele, die 2015 / 2016 erscheinen, in Zusammenarbeit mit AMD entstehen. Mantle hat den Entwicklern gezeigt, wie man mit einer Low-Level-API arbeitet, die Konsolen nutzen AMD-Hardware und verwenden Low-Level-API und nun trägt diese Saat ihre Früchte.

Trotz des harten Konkurrenzkampfes mit ebenfalls in Kalifornien ansässigen Grafikhersteller Nvidia wirkt AMD sehr zuversichtlich. Nvidia setzt ebenfalls verstärkt auf die Zusammenarbeit mit den Spieleentwicklern und bietet mit der Gameworks-Bibliothek eine Reihe exklusiver Features, musste sich in der Vergangenheit aber bereits des Öfteren Vorwürfe gefallen lassen, mit diesen Features AMD-Karten absichtlich auszubremsen (mehr dazu findet ihr in unseren Meldungen: AMD wirft Nvidia Sabotage bei Optimierung vor und The Witcher 3: AMD wirft Nvidia Performance-Sabotage vor. Man darf gespannt sein, welcher der beiden Grafikhersteller im kommenden Jahr die Spielbühne dominiert.

Hyperlord 15 Kenner - P - 2845 - 7. September 2015 - 19:51 #

Ich hab mich dieses Frühjahr auf ne GTX970 festgelegt und damit werde ich die nächsten 3-4 Jahre bewältigen wollen. Ich denke nicht, komplett aufs falsche Pferd gesetzt zu haben ...

D43 15 Kenner - P - 3581 - 7. September 2015 - 19:55 #

Da bin ich mal gespannt, ich gehe davon aus das sich nvideas Kunden die die 970 gewählt haben jetzt nicht extra eine neue Grafikkarte besorgen...

Aber beim nächsten Kauf hat nvidea mehr als nur einen minuspunkt bei mir.

Loco 17 Shapeshifter - 8088 - 7. September 2015 - 20:05 #

Das nervt mich fast nur noch. Dieses ständige... läuft auf Nvidia Karten besser, läuft auf AMD Karten besser, läuft hier wieder schlechter, da wieder besser, funktioniert auf Nvidia Karten dieses Typs gar nicht. Dann kommt ein Patch und plötzlich läuft es dort wieder nicht. Dann stellt sich raus Nvidia bremst absichtlich und programmiert so, dass AMD benachteiligt wird.

Macht alles einfach keinen Spaß mehr als PC-Spieler. Nervt nur noch.

jeef 12 Trollwächter - 883 - 7. September 2015 - 20:14 #

Stimmt schon und auch irgendwie völlig unnötig da ewig drauf rumzureiten. 2 völlig andere Entwickler kann also net alles gleich sein
Coca Cola schmeckt auch net wie Pepsi ;)

Thomas Barth 21 Motivator - 27449 - 7. September 2015 - 20:19 #

Nur fährt Coca Cola nicht in die Werke von Pepsi und pinkelt in die Behälter, damit die Menschen mehr Coca Cola kaufen. ;)

Vidar 18 Doppel-Voter - 12258 - 7. September 2015 - 20:26 #

Das weißt du doch gar nicht :p

D43 15 Kenner - P - 3581 - 7. September 2015 - 20:28 #

Wer weiß, Sabotage gibt's ja nicht nur in der PC Branche ;)

Aiex 16 Übertalent - 4334 - 7. September 2015 - 20:46 #

Dann willst du nicht wissen wie man die Colafarbe herstellt.

Thomas Barth 21 Motivator - 27449 - 7. September 2015 - 20:53 #

Ich trinke eh ausschließlich Wasser, in dem vögeln die Fische. ;)

Aiex 16 Übertalent - 4334 - 7. September 2015 - 21:15 #

Ist auch besser für die Knochen.

Jonas -ZG- 17 Shapeshifter - - 6907 - 7. September 2015 - 21:14 #

Cola oder Pepsi, hauptsache Dr Pepper.

Hendrik -ZG- 25 Platin-Gamer - P - 61293 - 7. September 2015 - 21:51 #

Stimmt, schmecken beide Scheiße.
Die einzig wahre Cola ist River Cola ! :D

ShaftShambler 14 Komm-Experte - 1804 - 7. September 2015 - 22:40 #

Lüg doch nicht so unverschämt.
Die Wahl kann nur heißen Fritz oder Vita Cola!

D43 15 Kenner - P - 3581 - 7. September 2015 - 22:43 #

Du bist des Teufels! Nur afri Cola ist das Getränk der Götter!

Roland 18 Doppel-Voter - 10797 - 7. September 2015 - 23:18 #

Fritz Cola, ihr Narren! :D

ShaftShambler 14 Komm-Experte - 1804 - 7. September 2015 - 23:28 #

Beim Teutates nur die ClubCola! Geh weg mit deinem Narrenkostüm.

Aladan 21 Motivator - - 28567 - 8. September 2015 - 4:55 #

Ihr Lumpen! Ich konsumiere sie alle! Keine Cola ist vor mir sicher!

bsinned 17 Shapeshifter - 6828 - 8. September 2015 - 7:20 #

Nuka Cola!

ShaftShambler 14 Komm-Experte - 1804 - 8. September 2015 - 7:55 #

Du Computer Nerd! Komm mal im echten Leben an und trink Cherry Cola.

Urghfas 07 Dual-Talent - 146 - 8. September 2015 - 8:21 #

Wieso Nerd ?!?

Nuka Cola gabs bis vor kurzem wirklich zu kaufen, nur hat Bethesda das nun unterbunden, bleibt zu hoffen das die das mit Fallout 4 evtl. wiederbeleben!

Hendrik -ZG- 25 Platin-Gamer - P - 61293 - 8. September 2015 - 9:04 #

Würg, die ist doch abartig !

ganga Community-Moderator - P - 15579 - 8. September 2015 - 14:15 #

Bitte wieder zurück zum Thema.

Nokrahs 16 Übertalent - 5684 - 7. September 2015 - 21:56 #

Da müsste mal jemand richtig Geld in die Hand nehmen und eine neue Marke etablieren, die sowohl AMD als auch NVidia in allen Punkten technisch überlegen ist und für den Endkunden am Ende noch preiswerter.

100% kompatible Treiber für alle Betriebssysteme so das kein Mensch Windows braucht um ein Spiel zu starten, sondern der Kram läuft automatisch auch auf MAC oder Linux. Direkt, aus der Schachtel raus.

Okay, genug vom Zocker Schlaraffenland geträumt.

Spieler haben heutzutage praktisch nichts mehr zu entscheiden. Es wird genommen, was die großen Hersteller so anbieten und zu deren Bedingungen. Sei es in Sachen Datenschutz, Online Zwänge und sonstigem Mist. Ansonsten wird nicht gezockt.

Klar "nervt" das total, aber neues Hobby suchen und der Bande "Spiele/Hardware Industrie" den Mittelfinger zeigen, bringe ich nicht fertig.

Toxe 21 Motivator - P - 26052 - 7. September 2015 - 22:13 #

>Klar "nervt" das total, aber neues Hobby suchen und der Bande "Spiele/Hardware Industrie" den Mittelfinger zeigen, bringe ich nicht fertig.<

Warum auch, im Vergleich zu vergangenen Zeiten läuft es im Moment, seien wir mal ehrlich, gar nicht schlecht.

Und was Wahlmöglichkeiten angeht: Zu viele sind auch nicht gut.

jeef 12 Trollwächter - 883 - 7. September 2015 - 22:09 #

Glaube wenn das "gut" möglich wäre hätten dies schon in den letzten 15 Jahren jemand getan. Man könnte vllt hoffen das Matrox oder so vllt irgendwann mal in richtung Gaming gehen würden, aber hätten die da nen Lichtblick am Horizont hätten auch die das schon längst getan.

Nokrahs 16 Übertalent - 5684 - 7. September 2015 - 22:17 #

Stimmt. Die "Millenium" war damals ne Hammerkarte.

jeef 12 Trollwächter - 883 - 7. September 2015 - 22:25 #

tz "Hercules 3D Prophet" For the win :p

ERRORrothe (unregistriert) 8. September 2015 - 7:29 #

Jupp... aber blöd war das damit BF 1942 nicht lief - das war die schmerzhafteste Erkenntnis die ich jemals machen musste ;)

PatStone99 15 Kenner - 3623 - 8. September 2015 - 7:14 #

@Loco, was du da bemängelst, war Ende der 90er sogar noch schlimmer. Es gab zwar mit Direct 3D eine einheitliche Schnittstelle, aber die großen Hersteller kochten jeweils ihr eigenes Süppchen. Viele Spiele bekamen je nach Hersteller ihren eigenen Patch & liefen dementsprechend auch in unterschiedlicher Qualität. Die eine Karte konnte das besonders gut, die andere hatte schon wieder ein neues Feature an Bord ( 3DFX hatte mit dem brandneuen SLI ( ohne Microruckler! ) die beste Optik & Performance, S3 hat die Texturkompression erfunden. Die Matrox Mystique dagegen war wegen ihrer 2D-Performance sehr beliebt, konnte aber in 3D nur bedingt mithalten ). Gewisse Spiele liefen auf Chips der Konkurrenz gar nicht, oder nur mit CPU-berechneten 3D in hässlich.

Aladan 21 Motivator - - 28567 - 7. September 2015 - 21:11 #

Ach in meinem Notebook arbeitet eine GTX 980 M mit 8GB, die reicht erst einmal für die nächste Zeit, egal ob Nvidia oder AMD ihren Blödsinn da abziehen.

Mir geht der ganze Quark mit dem Kampf der GPU-Hersteller echt auf die Nerven und der geht zum Großteil auf Kosten der Nutzer, die je nach Spiel absichtlich benachteiligt werden..

brabangjaderausindien 13 Koop-Gamer - 1450 - 7. September 2015 - 22:21 #

intressant wird's im zusammenhang mit vr. weil da ist besagtes feature nämlich ziemlich "crucial". gespannt, was da nvidia noch im ärmel hat oder eben nicht. ich als kunde "freu" mich - so setzt das problem nvidia wieder unter zugzwang und sie können sich nicht auf den lorbeeren der 900er reihe ausruhen...

Kopa 12 Trollwächter - 837 - 7. September 2015 - 22:30 #

PR-Gelaber, Entwickler können es sich nicht leisten nur für eine Grafikkarten-Schiene zu optimieren, denn dann verkauft sich das Spiel einfach nicht.

Ideal ist es wenn Spiele auf egal welcher (aktuellen) Hardware super laufen und gut aussehen. Besser noch wenn auch Spieler mit älterer Hardware nicht verprellt werden.

D43 15 Kenner - P - 3581 - 7. September 2015 - 22:39 #

Optimiert wird beides aber besonderer Wert vll auf AMD gelegt ist ja tatsächlich in denn Konsolen nur AMD verbaut und zumindest die könnten einen leistungsschub brauchen ;)

Pro4you 18 Doppel-Voter - 11340 - 7. September 2015 - 22:56 #

Durch solche News denk ich mir immer, wie entspannt es als Konsolenspieler sein muss^^ für jemand der beides hat ist es dann doch schon nervig.

Jemand der sich jetzt oder die nächste zeit eine Radeon deswegen Karte holt der ist dafür verantwortlich, dass dieses ganze hin und her immer so weiter geht.

Nokrahs 16 Übertalent - 5684 - 7. September 2015 - 23:00 #

Also ich bin die letzten 15 Jahre auch ohne Radeon ausgekommen. Wenn die ohnehin etwas schwachbrüstigen Konsolen dadurch performanter in der Bilddarstellung werden, dann ist doch alles gut. Die Unterschiede beim PC werden sich, wenn überhaupt, in sehr überschaubaren Grenzen halten.

ShaftShambler 14 Komm-Experte - 1804 - 7. September 2015 - 23:05 #

Erstmal abwarten wann denn das Killerfeature asynchrone Shader wirklich zum tragen kommt.
Nur weil der Mantle Haus und Hof Demo Entwickler Alarm schlägt, hat das noch lange nichts mit dem Großteil der erscheinenden Spiele zu tun.

Das einzige was das aussagt ist das jemand der plant ne neue Karte zu kaufen eher nochmal den Zeitpunkt überdenken sollte.

Wenn jetzt durch diese Tragödie in mehreren "Twitter Akten" jedoch vermehrt AMD Hardware über den Tisch geht, soll mir das Recht sein. Ein starkes AMD bedeutet stärkere Konkurrenz und die wiederum kommt allen Spielern zu gute.

Dennis Ziesecke Freier Redakteur - 29503 - 7. September 2015 - 23:35 #

Die Funktion beschleunigt die Grafikwiedergabe vor allem bei schwacher CPU. In den zwei wichtigen aktuellen Konsolen stecken extrem schwache CPU-Kerne und eine AMD-Grafik mit dem Feature "asynchrone Shader". Entwickler wären doof wenn sie es angesichts der schwachen CPU-Kerne (immerhin handelt es sich dabei um AMDs Atom-Konkurrenz, nicht um wirklich "große" Cores) nicht davon regen Gebrauch machen würden.

Die Funktion dürfte also im Code vieler Konsolenspiele aktiv genutzt werden. Warum sollte man das für Nvidia wieder rauspatchen? Klar: Weil Nvidia mit "Argumenten" wie Gratis-Entwickerunterstützung nachhilft. Hier muss AMD noch etwas rabiater werden.

ShaftShambler 14 Komm-Experte - 1804 - 8. September 2015 - 1:31 #

Das ist mir durchaus bewusst, ändert trotzdem nichts an der Tatsache das solche Spiele erstmal erscheinen müssen ehe man sich von dieser Funktion zu einem Kauf verleiten lassen sollte.

Und das Argument sie wären dumm wenn sie es nicht nutzen kann man genauso gut in die andere Richtung bringen, sie wären dumm wenn sie nur auf AMD spielbar sind, einen Großteil der potentiellen Kunden ausschließen, und sollten auch für nVidia optimieren.

Das ist Spekulation und auf derer sollte man einfach keine finanziellen Entscheidungen begründen.

Klar wenn man noch ne GTX2xx oder ne HD4xxx hat könnte es etwas dringender sein so das man sich die Zeit nicht nehmen kann.

Dennis Ziesecke Freier Redakteur - 29503 - 8. September 2015 - 9:03 #

KONSOLENENTWICKLER wären dumm, wenn sie die 30% Mehrleistung nicht mitnehmen. Denen ist es herzlich egal, was mit Nvidia ist, da ihre Kunden damit nichts zu tun haben. Die Funktionen stecken aber im Code, was sich bei PC-Umsetzungen (immerhin bestehen die aktuellen Konsolen aus PC-Teilen) niederschlagen dürfte. Verstehst?

Just my two cents 16 Übertalent - 4357 - 8. September 2015 - 9:16 #

Und wo soll die Mehrleistung herkommen? Das Ende der Fahnenstange ist doch bei den aktuellen Konsolen anscheinend schon erreicht. Wozu braucht der geneigte PC Spieler, der nicht in 4 oder 8K Auflösungen spielen will momentan mehr als das, was aktuell verbaut ist? Und unterstützt Sony dann Dx12 bei der PS4? Mit der Mehrleistung auf der One kann dann vielleicht häufiger mal 1080p erreicht werden - das war es dann doch vermutlich auch schon.
Mantle war schon bislang etwas, was für Nutzer von Intel und Nvidia Karten eigentlich völlig uninteressant war, da Mantle nur typische AMD Schwächen kompensiert hat.
Oder kommt mit Dx12 das goldene Zeitalter der Leadplattform PC? Wohl kaum...

Dennis Ziesecke Freier Redakteur - 29503 - 8. September 2015 - 9:43 #

Wenn du nicht einmal verstehst, wie asynchrone Shader bei schwachen CPUs zu mehr Grafikleistung führen, dann ist die Diskussion irgendwie unsinnig.

Just my two cents 16 Übertalent - 4357 - 8. September 2015 - 10:27 #

Oh entschuldige, wie konnte ich es wagen. Weitermachen...

Dennis Ziesecke Freier Redakteur - 29503 - 8. September 2015 - 10:55 #

Du siehst aber schon ein, dass ein grundlegendes Verständnis der Thematik bei einer sachlichen Diskussion verdammt hilfreich sein könnte?

Just my two cents 16 Übertalent - 4357 - 8. September 2015 - 12:20 #

Ich sehe nur, dass von Dir primär Arroganz kommt. DAS hilft wirklich bei einer sachlichen Argumentation.

Dennis Ziesecke Freier Redakteur - 29503 - 8. September 2015 - 19:24 #

Aber du solltest schon verstehen, dass man über ein technisches Thema sehr schlecht sachlich reden kann, wenn man absolut nicht weiß worum es geht oder? Bisher konntest du jedenfalls nicht überzeugend darstellen, dass du weißt worum es geht.

Nudeldampfhirn 14 Komm-Experte - P - 2340 - 8. September 2015 - 12:12 #

Err, ohne technisches Verständnis in der Hinsicht sind Diskussionen aber leider recht wenig zielführend und noch weniger objektiv, daher ist sein Einwand schon berechtigt.

Und Mantle hat Schwächen bei DirectX ausgeglichen durch mehr Low Level API Zugriffe, was dann auch in OpenGL mit Vulcan übergegangen ist. Erst durch Mantle sah sich Microsoft genötigt, bei der neuen DirectX Version auch derlei anzubieten. Bitte vorher einfach etwas besser informieren, dann haben alle Diskussionsteilnehmer mehr davon :)

Just my two cents 16 Übertalent - 4357 - 8. September 2015 - 12:28 #

Und was hat das bislang in der Praxis für Spiele bedeutet?
Bei DA:I war Dx11 schneller als Mantle:
http://www.computerbase.de/2014-11/benchmarks-und-grafikvergleich-zu-dragon-age-inquisition/
Richtig glänzen konnte Mantle bei Kombinationen von schwächerer älter AMD CPU und AMD Grafikkarte:
http://www.gamestar.de/spiele/battlefield-4/artikel/amd_mantle_vs_directx_11,47443,3032285,2.html#benchmark-tests
Ich sehe daher nicht wo meine Aussage, dass Mantle für Nutzer von Intel und Nvidia bislang in der Praxis völlig egal war falsch sein soll.

Und Sony wird wohl kaum auf Dx12 setzen, es stellt sich dann wirklich die Frage, warum da bislang keiner Entwickler das Potenzial nutzt - hey nach der hier vertretenen Logik und der Tatsache, dass ich keine Ahnung habe müsste die PS4 ohnehin jedem PC mit Nvidia GPU davoneilen - tut sie nur nicht...

Nudeldampfhirn 14 Komm-Experte - P - 2340 - 8. September 2015 - 13:46 #

Du willst ernsthaft bei einem Frame (!) Unterschied von schneller und langsamer sprechen? Entschuldige, aber das ist lächerlich und nichts anderes als Erbsenzählerei.
Generell gilt bei den Tests (z.B. hier: http://www.pcgameshardware.de/Dragon-Age-Inquisition-Spiel-21976/Specials/Technik-Test-1142136/ ) auch eher der Tenor, dass bei langsameren CPUs das Spiel im Vergleich deutlich flüssiger läuft mit Mantle. Und genau darum geht es doch auch, den CPU Overhead wegnehmen, den DirectX hat. Schnellere CPUs können das besser kompensieren als langsamere, die daher durch die Low Level Grafikschnittstelle das ein wenig "abgenommen" kriegen.

Deine Aussage, dass Mantle für Nvidia und Intel nichts bringt, weil es typische AMD Schwächen kompensiere ist ein wenig Äpfel mit Birnen vergleichen. Wenn Nvidia Mantle nicht unterstützt (was sie könnten, denn es ist offen für sie verfügbar), dann ist das deren Sache - aber es macht Vergleiche dadurch unmöglich. Vielleicht würde die Performance mit Nvidia Karten ja auch zulegen - aber woher soll man es wissen, wenn sie es nicht nutzen wollen. Und was hat Intel da zu suchen? Du wirfst hier wild Dinge durcheinander.

Sony hat mit DirectX12 überhaupt nichts am Hut, ich weiß nicht, warum du das nochmal reinwirfst. Ebensowenig hat keiner behauptet, dass die PS4 oder die Xbox jedem PC davoneilt. Es geht schlicht darum, dass die in beiden Konsolen vorhandenen Grafikchips von AMD den jeweiligen CPUs Last abnehmen _können_ durch diese Low Level API, wenn die Konsolenentwickler die vorhandene Funktionalität entsprechend durch ihre Programmierung nutzen _wollen_.
Was dann im Umkehrschluss eventuell auch den PC Fassungen zugute kommen kann, da die Codebasis häufig ähnlich ist. Aber sowas dauert in der Regel, auch bei DirectX9 hat es lange gedauert, bis es ausgereizt wurde.

Wo also ist dein Problem?

yankman 13 Koop-Gamer - P - 1776 - 8. September 2015 - 9:58 #

Mantle hat nicht AMD-Schwächen kompensiert. Mantle hat u.a. versucht DirectX- Schwächen zu kompensieren. DirectX braucht durch die aktuelle Implementierung einfach gesagt recht viel CPU-Power. Das wäre eigentlich nicht notwendig, wenn es anders konzipiert wäre bzw. dem Entwickler näher an die Hardware heran liese.
Natürlich wollte AMD damit die eigenen APUs in ein besseres Licht rücken, aber letzendlich ist das nicht eine Form von Schwäche ausbügeln sondern effizienter arbeiten.
Immerhin hat Microsoft angekündigt in dieser Hinsicht DirectX zu verbessern und auch für OpenGL sind Änderungen diesbezüglich geplant.

ShaftShambler 14 Komm-Experte - 1804 - 8. September 2015 - 21:40 #

Hast du auch nur einen Beleg dafür das KONSOLENHERSTELLER das massiv einsetzen?
Ich hab heute erst in einem Techpowerup Beitrag gelesen das Epic bei der aktuellen UE 4.9, in der offiziellen Dokumentation, von Problemen und immensen Mehraufwand im Zusammenhang mit asynchronen Shadern spricht.

Btw gibt es mittlerweile auch Tests die belegen das bis zu einen gewissen Stapel an asynchronen Shaderaufrufen Maxwell v2 durchaus das in Hardware macht und das sogar schneller als GCN.

Aber ja weil es ab 32 GCN besser macht muss das natürlich jeder KONSOLENHERSTELLER nutzen.

Witzig ist dabei nur das diese KONSOLENHERSTELLER einen PC Port machen, oder machen lassen, um überhaupt erstmal an das angebliche Problem zu kommen. Und auch da muss man die Realität abwarten wie sauber da gearbeitet wird.

Ich bleibe dabei das diese Mantle Software nicht als Paradebeispiel für andere Softwareentwickler hergezogen werden sollte und man erst echte zahlen von wirklich erschienen Titeln abwarten sollte bevor man eine Kaufentscheidung in seiner Preisklasse trifft. Höchstwahrscheinlich wird es dann eh nicht mehr FiJi und Maxwell v2 sein sondern deren Nachfolger und Rebrands ^^.

Jadiger 16 Übertalent - 4881 - 8. September 2015 - 3:07 #

Bei den Konsolen wird schon immer Low-Level api zu Griffe verwendet und Asynchrone Shader gibt es schon auf den Konsolen. Die Konsolen haben überhaupt keinen Vorteil von DX12 oder der PC Entwicklung.
Die Aussage das AMD so gut mit Asynchronen Shader umgehen kann stammt von AMD und deren Anhängsel. Darauf hin wurde in beyond3d ein tool gebastelt um das ganze zuklären. Das ganze mist die Zeit wie schnell die Anfragen errechnet werden und gibt es dann in Millisekunden aus, so kann man ganz einfach heraus finden wie schnell eine Anfrage beantwortet wird.
Kannst dir ja mal selbst die Ms Werte ansehen wie AMD abscheidet ob sie wirklich in einem nicht CGN optimierten Bench so gut da stehen. Ich kann dir sagen das tun sie nicht AMD macht ein Drama aus etwas wo es selbst nicht einen Benchmark oder gar ein Spiel gibt das auf Asynchrone Shader aufbaut.
Da Ashes of so gut wie gar keine verwendet, sollte man sich fragen was das soll. Übrigens DX12 besteht aus ein paar mehr Funktionen und zur Überraschung kann AMD einiges überhaupt gar nicht. Den AMD unterstütz nur DX12.0 und Nvidia DX12.1 wie auch die X1.

https://forum.beyond3d.com/threads/dx12-async-compute-latency-thread.57188/page-9

Aber he solche doofen tools interessieren ja keinen, lieber der Aussage von AMD glauben ohne einen Benchmark. Den das Gegenteil kann man aktuell ja nicht wirklich beweisen außer mit tools. Es gibt übrigens mehre alle mit Quellcode nur wird darüber nicht Berichtet.

Dennis Ziesecke Freier Redakteur - 29503 - 7. September 2015 - 23:01 #

Anders herum: Wer sich eine Nvidia kauft.. Warum? Weil es hier nicht AMD sind, die Features herbeireden, die nicht vorhanden sind. AMD setzt auf offene Standards, Nvidia schottet ab. Wie lässt sich das Hin und Her denn besser abwenden wenn nicht durch offene Standards? Nvidia könnte diese nutzen und sogar daran mitentwickeln. Wenn sie wollten.

Jadiger 16 Übertalent - 4881 - 8. September 2015 - 1:58 #

Wo den bitte hat AMD offene Standards True Audio ist Exclusiv. Mantel war bis es AMD selbst nicht mehr brauchen konnte auch Exclusiv. TressFX war zwar offen aber unspielbar auf Nvidia Karten. Free Sync kommen jetzt erst Panels raus die niedrige Fps unterstützen und wenn Freesync geschlossen wäre wer würde es kaufen bei AMDs 22% Marktlage. Sie haben gar keine andere Wahl mit Freesync, zu mal die Panels schlechter waren wie Gsync. Siehe auch PCGH:

http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/Specials/AMD-Freesync-G-Sync-Konkurrenz-Test-1153777/

PatStone99 15 Kenner - 3623 - 8. September 2015 - 7:44 #

Die Nutzung von Mantle stand Nvidia immer offen. Natürlich hat AMD die Vorteile seiner GCN-Architektur bei Mantle genutzt, aber Nvidia hätte seinen Treibern ebenfalls Mantle beibringen können, sie wollten aber nicht. Auch TressFX hätten sie nutzen dürfen, stattdessen haben sie lieber das Nvidia-exklusive Hairworks hervorgebracht. Selbstverständlich war TressFX auf Nvidia-Karten eine FPS-Bremse, weil Nvidia es nicht in seinen Treibern unterstützen wollte.

Dein Beispiel mit TrueAudio hinkt, weil dies auch hardwareseitig integriert sein muß. Nicht einmal alle R9 200 Karten von AMD selbst unterstützen das. Genausogut könntest du Creative Labs vorwerfen, dass sie EAX nicht an Nvidia lizensieren. Würden sie aber, wenn Nvidia das wollte. Audio steht bei Nvidia aber scheinbar auf der Prioritätenliste nicht sehr weit oben.

Dennis Ziesecke Freier Redakteur - 29503 - 8. September 2015 - 9:04 #

Danke. Manchmal ist es ermüdend gegen Jadigers Fanboy-Dreiviertelwissen zu argumentieren. Das letzte Viertel Wissen hat er sicher, es wird aber im lauten Nvidia-Wahn ignoriert.

Just my two cents 16 Übertalent - 4357 - 8. September 2015 - 9:22 #

Sagt der VR-Fanboy...

Dennis Ziesecke Freier Redakteur - 29503 - 8. September 2015 - 9:46 #

VR, ja. Habe ich gesehen, ausführlich getestet und für toll befunden. Bin ich auch ein "Dach-über-dem-Kopf-Fanboy" weil ich das Prinzip bei Regen nicht nass zu werden toll finde? Ich bin aber kein Fanboy eines bestimmten Unternehmens sondern kaufe das, was sich als das sinnvollste Produkt herausstellt. Daher verteidige ich keine einzelne Firma bis aufs Blut und gegen alle noch so stichhaltigen Gegenargumente, nur weil mir vor 10 Jahren mal ein Produkt von denen so toll gefallen hat oder weil ich meine aktuelle Investition rechtfertigen muss. Kleiner Unterschied. Zur Info: In meinen PCs stecken sowohl AMD- als auch Nvidia-Karten. Sorry, dein "Argument" ist nicht einmal zwei Cent wert.

Sp00kyFox 18 Doppel-Voter - 9807 - 8. September 2015 - 13:27 #

kleiner unterschied? naja, nicht wirklich. ob man nun ein spezielles produkt einer firma fanatisch gegen alle vernünftigen argumente verteidigt oder generell eine technologie, ist nun wirklich einerlei.

Dennis Ziesecke Freier Redakteur - 29503 - 8. September 2015 - 19:27 #

Nur dass VR eben auf eigenen Erfahrungen von mir gelobt wird. Das hat nichts mit "gegen alle Argumente" zu tun - ich habs erlebt, die Möglichkeiten gesehen und mich überzeugen lassen. Demgegenüber steht ein "Ich mag Nvidia/AMD weil die toll sind, weiß nicht warum aber toll!"

Sp00kyFox 18 Doppel-Voter - 9807 - 8. September 2015 - 20:18 #

ändert ja nichts daran, dass du sinnvolle kritik oder auch nur skepsis bei diesem thema oftmals ohne gegenargumente beseite wischst. stichwort: "ihr seid fantasielos". da besteht für mich kein unterschied zu einem fanboy der nun einen speziellen hersteller verteidigt, weil dieser sich von den möglichkeiten der produkte desselbigen hat überzeugen lassen. die positiven aspekte machen machen ja negative nicht zunichte.

Dennis Ziesecke Freier Redakteur - 29503 - 8. September 2015 - 22:13 #

Nur dass wir bei meinem "Fanboy-Gehabe" warten können ob meine Aussprüche wahr werden (und ich durchaus gewillt bin, dann auch meine Meinung zu ändern), während Firmen-Fanboys "ihr" Unternehmen auch bei miesen Produkten aufs Blut verteidigen.

Sp00kyFox 18 Doppel-Voter - 9807 - 8. September 2015 - 22:14 #

sprich, du bist ein unverbesserlicher technik-optimist ;)

Dennis Ziesecke Freier Redakteur - 29503 - 8. September 2015 - 23:06 #

Absolut nicht, eigentlich sehe ich als erstes immer die Bedienschwierigkeiten und umständliche Softwareverbrechen. Aber mitunter gibt es Themen, von denen ich persönlich überzeugt bin. Weil ich es ausprobiert habe und toll fand. Leap Motion beispielsweise habe ich bei Notebookcheck kräftig kritisiert obwohl ich die Idee dahinter vorher toll fand.

Nudeldampfhirn 14 Komm-Experte - P - 2340 - 8. September 2015 - 12:04 #

Danke, ich hatte schon überlegt wie ich auf seinen Post am besten mit Fakten antworte, aber das hast du jetzt sehr gut erledigt :)

Noodles 21 Motivator - P - 30153 - 8. September 2015 - 13:58 #

Nvidia hat ihren Treiber für Tomb Raider doch auf TressFX optimiert. Ich weiß nämlich noch, dass ich es mit dem damals neuen Treiber aktivieren konnte und es lief gut auf meiner 560 Ti, ich musste nur die Schattenqualität etwas runterregeln. Aber da ich den Effekt von TressFX dann nicht so toll fand, hab ich mich doch für die Schatten entschieden. ;)

ShaftShambler 14 Komm-Experte - 1804 - 8. September 2015 - 21:24 #

Mantle stand nVidia offen? Na das will ich aber mal sehen wo du den Sourcecode für die herbeizauberst.
Biliotheken einbinden steht AMD auch offen ^^.

Nur weil sie es angekündigt haben heisst das noch lange nicht das es geschehen ist.

Spiritogre 18 Doppel-Voter - 11042 - 8. September 2015 - 14:13 #

Ich bin eigentlich Multiplattformspieler. Seitdem ich aber eine neue Grafikkarte, dazu einen sehr guten Monitor habe, habe ich ein wenig Probleme mit den Konsolen, die sehen einfach immer übler aus, während ich am PC mit konstant 60 FPS bei besserer Grafik als jede Konsole zocke, fällt der Downgrade zur Konsole extrem schwer und ich spiele nur noch ungerne dort.

Koffeinpumpe 15 Kenner - 3222 - 8. September 2015 - 9:04 #

Bin ich der einzige, dem total egal ist was auf der Graka draufsteht? Wenn ein neues Spiel ruckelt muss was Neues her und gekauft wird die mit dem aktuell besten Preis/Leistungsverhältnis im 200€ Bereich. So bin ich bislang immer gut gefahren und kann eine Karte mehrere Jahre lang nutzen.

CBR 20 Gold-Gamer - P - 20262 - 8. September 2015 - 12:48 #

Das passt so in etwa ganz gut, wobei ich persönlich AMD leicht favorisiere. Derzeit ist aber eine nVIDIA bei mir verbaut.

"Et kütt wie et kütt."

Koffeinpumpe 15 Kenner - 3222 - 8. September 2015 - 13:31 #

"un et is noch immer jot jejange." ;)

Spiritogre 18 Doppel-Voter - 11042 - 8. September 2015 - 14:15 #

Exakt das!

Allerdings hatte das in den vergangenen Jahren zur Folge, dass ich zumeist AMD kaufen musste, weil NVidia in der Klasse einfach nicht so gute Angebote hat.

Sp00kyFox 18 Doppel-Voter - 9807 - 8. September 2015 - 14:37 #

zumindest in sachen preis-leistung. wenn dies das einizige kriterium beim graka-kauf ist, hat AMD ja schon lange die nase vorn.

Equi 14 Komm-Experte - 1912 - 8. September 2015 - 15:35 #

Das mag vor 5 Jahren noch ganz gut geklappt haben. Mittlerweile befinden wir uns aber in der eigenartigen Situation, wo die gleiche Leistung der Vorgängergeneration, bei der Nachfolgegeneration das Gleiche kostet. Zwar kommt die neue Generation mit einem stärkeren Topmodell daher, wenn du aber meinetwegen 2013 ne Karte für 250 € gekauft hast, bezahlst du beim selben Hersteller 2015 250€ für 0-10% mehr Leistung. Weiß nicht ob es das schon jemals gegeben hat und warum da nicht offensiver drüber berichtet wird ...

Sp00kyFox 18 Doppel-Voter - 9807 - 8. September 2015 - 16:29 #

20% kommt eher hin (wenn ich jetzt mal gtx 760 von mitte 2013 die gtx 960 gegenüberstelle). aber ja, so richtig beeindruckend ist das nicht. spart man sich immerhin so oft eine neue zu kaufen ^^

Noodles 21 Motivator - P - 30153 - 8. September 2015 - 16:48 #

Naja, man kann ja auch ein oder zwei Generationen auslassen. Ich hatte bis Mai diesen Jahres noch eine GTX 560 Ti, die hat sich echt gut gehalten. Selbst jetzt würde die noch manches von den neu erscheinenden Spielen packen. Aber wegen Batman (haha) bin ich dann doch mal auf eine neue Grafikkarte umgestiegen. Und von einer 560 Ti zu einer 960 (ich hab aber eine 970 gekauft) wären auf jeden Fall mehr als 20 %.

Sp00kyFox 18 Doppel-Voter - 9807 - 8. September 2015 - 16:54 #

jup, klar. die GTX 560 Ti ist ja dann doch etwas älter als nur 2 jahre, die erschien immerhin 2011.

Noodles 21 Motivator - P - 30153 - 8. September 2015 - 17:22 #

Hab überlesen, dass es hier um 2 Jahre ging. :D Aber alle 2 Jahre eine neue Grafikkarte kaufen zu müssen, das war mal, ist heute gar nicht mehr nötig. :)

Nudeldampfhirn 14 Komm-Experte - P - 2340 - 9. September 2015 - 6:27 #

Ich freue mich schon auf den Geschwindigkeitrausch nächstes Jahr, wenn ich dann ich glaube vier Generationen überspringe :D

Aladan 21 Motivator - - 28567 - 9. September 2015 - 15:18 #

Ich bin von 560 ti auf GTX 980. Der Unterschied ist ...bemerkbar... ;-)

ShaftShambler 14 Komm-Experte - 1804 - 8. September 2015 - 21:31 #

Nene damit bist du nicht alleine. Deswegen versuchen ja auch einige gegen den blinden AMD ist gut nVidia böse und das mit den Shadern ist ein Killerargument anzukommentieren.

Letztendlich halte ich es so das ich so lange wie mir kein Spiel zu zäh vorkommt nicht Upgrade und dann wird entschieden was man so für 350€ bekommt. Jedem seine eigene Preisklasse ^^.

Aber diese absoluten, in meinen Augen Falschmeldungen, wie AMD ist immer besser oder das gleiche von der anderen Seite sind einfach bescheuert und kommen doch viel zu oft.

Und mal ehrlich eine DX12 Karte der Zukunft kauft man sich nicht jetzt.

Eigentlich war es bei dem Großteil der Leute doch immer so das sie auf den aktuellen Stand schauen. Und wie viele DX12 Spiele erscheinen in den nächsten 12 Monaten die entsprechende Leistung voraussetzen, also aus dem TrippleA bereich? Das werden eher keine 5 sein ^^.

Mack0438 10 Kommunikator - 407 - 8. September 2015 - 13:39 #

Interessant wäre dazu zu wissen, ob es sich dabei nicht vorwiegend um Konsolenspiele handelt. Da in den Konsolen AMD Hardware steckt macht es Sinn, dass sich AMD mit den Spieleentwicklern dort kurzschließt und Kooperationen hat.

Allerdings stellt sich die Frage "AMD oder NVIDIA?" ja vorwiegend auf dem PC und da wird AMD wahrscheinlich (Spekulation) nicht so viele Kooperationen haben. NVIDIA setzt sich ja vorwiegend auf dem PC-Spiele Markt ein.

Deswegen würde ich im Endeffekt nicht so viel auf dieses PR-Geplapper geben.

Spiritogre 18 Doppel-Voter - 11042 - 8. September 2015 - 14:18 #

Der Großteil der Vollpreisspiele ist jedoch Multiplattform. Und Konsolen sind häufig die Lead-Plattform. Und diese setzen nun einmal derzeit durch die Bank auf AMD Hardware. Genau das kann eben dazu führen, dass AMD Karten am PC leicht besser unterstützt werden.

Und beim Großteil der kleineren PC (exklusiven) Games ist es völlig egal, die Grafik dieser Spiele langweilt sogar eine Intel HD ...

Noodles 21 Motivator - P - 30153 - 8. September 2015 - 14:26 #

Aber selbst bei Multiplattformspielen kommt es oft vor, dass sie dann auf dem PC Nvidia-Karten besser unterstützen. Schau dir doch allein die Kooperation von Ubisoft mit Nvidia an. Oder die Gameworks-Titel wie Witcher 3. Nvidia sorgt schon dafür, dass ihre Karten von Multiplattformspielen ordentlich unterstützt werden, da sie ja mit den Konsolen nix zu tun haben. Ich sehe bisher jedenfalls nicht, dass AMD-Karten auf dem PC in Spielen große Vorteile haben, weil in den Konsolen AMD-Hardware steckt.

Spiritogre 18 Doppel-Voter - 11042 - 8. September 2015 - 15:06 #

Na ja, Titel wie Shadows of Mordor oder auch Witcher 3 mit deaktivierten NVidia Fell / Haar (Gameworks) laufen auf aktuellen AMD Karten tatsächlich besser als auf den gleichteuren NVidia Karten. Es gibt immer Ausnahmen und vor allem reden wir hier noch von Spielen, die schon in Entwicklung waren, bevor die aktuellen Konsolen auf den Markt kamen. Entscheidend sind ja gerade künftige DX12 Titel.

Ich habe z.B. nach dem Umstieg von Win 7 auf Win 10 und der Möglichkeit in einigen Titeln z.B. Batman Arkham Origins mit einmal DX11 aktivieren zu können einen unglaublichen Leistungsboost dort erhalten.

Noodles 21 Motivator - P - 30153 - 8. September 2015 - 15:36 #

Ja, muss man mal abwarten, wie das in Zukunft aussieht. Ich denke aber schon, dass Nvidia dafür sorgen wird, dass PC-Ports auch auf ihren Karten gut laufen werden. Wie ist eigentlich der Marktanteil von Nvidia und AMD? Allein schon, weil genügend Leute Nvidia in ihrem Rechner haben, können sich die Entwickler es sich eh nicht erlauben, Ports vorrangig auf AMD zu optimieren.

Thomas Barth 21 Motivator - 27449 - 8. September 2015 - 16:58 #

Marktanteile:
Nvidia: 77,5%
AMD: 22,5%

Nvidia konnte seine Marktanteile in den letzten 5 Jahren um 18,8% steigern. Noch 5 weitere solche Jahre und sie besitzen ein quasi-Monopol.

Toxe 21 Motivator - P - 26052 - 8. September 2015 - 17:07 #

Vor kurzem diese beiden Grafiken gesehen:

http://i.imgur.com/8tI1pfS.png
http://cdn.wccftech.com/wp-content/uploads/2015/03/1amd_nvidia.png

(Desktop Marktanteil und F&E Budgets)

Da sind mal ziemlich klare Tendenzen zu sehen. Sieht nicht gut aus für AMD.

Aus diesem Thread: http://www.neogaf.com/forum/showthread.php?t=1098600

ShaftShambler 14 Komm-Experte - 1804 - 8. September 2015 - 21:34 #

Na dann wollen wir mal hoffen das sich das wieder ändert.

Ich wart ja drauf das ne FiJi im 300€ Bereich kommt. Das wäre mal ein Argument für steigende Absatzzahlen. Das was sie bisher geliefert haben ist doch nur Kleinserienmaterial.

yankman 13 Koop-Gamer - P - 1776 - 8. September 2015 - 17:17 #

Da kann aber was nicht stimmen. Imho hat Intel die Nase vorn.
Woher hast du die Zahlen ?

Just my two cents 16 Übertalent - 4357 - 8. September 2015 - 17:47 #

Intel und damit die Bürorechner sind da vermutlich als nicht relevant ausgeklammert.

Thomas Barth 21 Motivator - 27449 - 8. September 2015 - 17:48 #

http://de.statista.com/statistik/daten/studie/197681/umfrage/marktanteile-am-absatz-von-grafikkarten-weltweit-seit-dem-3-quartal-2010/

Geht wohl auch nur um dedizierte Grafikkarten, da hat Intel glaube ich gar keine.

yankman 13 Koop-Gamer - P - 1776 - 8. September 2015 - 18:49 #

Das ist leider nicht kostenlos. Wenn aber die integrierten Graphikkarten nicht gezählt werden, dann wohl auch nicht die aus AMDs APUs und die sind glaub ich schon spieletauglich.

ShaftShambler 14 Komm-Experte - 1804 - 8. September 2015 - 21:36 #

gar keine ist nicht ganz richtig aber die haben mit standard Grafikarten nix zu tun.
Desktop und 3D Beschleunigung machen sie nur ihre integrierten. Wobei die neuen IRIS Pro gar nicht mal so schlecht sind ^^.

Noodles 21 Motivator - P - 30153 - 8. September 2015 - 17:26 #

Wow, so extrem hätte ich das nicht gedacht. Aber bestätigt auf jeden Fall, dass die Entwickler auf dem PC es sich nicht erlauben können, für AMD zu optimieren und Nvidia zu vernachlässigen.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit
floppi