Ubisoft: AC Unity, Far Cry 4 u.m. erhalten Nvidia-Extras auf PC

PC XOne PS4
Bild von Nico Carvalho
Nico Carvalho 24428 EXP - Freier Redakteur,R10,S8,A8
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreichtBronze-Archivar: Hat Stufe 6 der Archivar-Klasse erreichtLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Schreiber: Hat Stufe 6 der Schreiber-Klasse erreichtBronze-Reporter: Hat Stufe 7 der Reporter-Klasse erreichtTester: Hat 5 Spiele- oder Hardwaretests veröffentlichtScreenshot-Geselle: Hat 500 Screenshots hochgeladenRedigier-Veteran: Verdiente 1000 EXP durch Edits fremder News/Artikel

5. Juni 2014 - 12:17 — vor 9 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!
Assassin's Creed - Unity ab 18,70 € bei Amazon.de kaufen.

Die bereits auf der letzten GamesCom bekannt gemachte Partnerschaft zwischen Ubisoft und Nvidia trägt auch in diesem Jahr Früchte: Die beiden Unternehmen haben heute angekündigt, dass die kommenden Titel des französischen Publishers Nvidia-exklusive Grafikspielereien in ihren PC-Fassungen enthalten werden. Die unterstützten Spiele sind Assassin's Creed Unity, Far Cry 4, The Division und The Crew. In der Vergangenheit arbeiteten Ubisoft und der Grafikkartenhersteller unter anderem an Assassin's Creed 4 - Black Flag (GG-Test der PC-Version: 8.0) und Watch Dogs (GG-Test) zusammen.

Zu den exklusiven Extras gehören neben der Kantenglättungsmethode TXAA und HBAO+, das für realistischere Licht- und Schattenverhältnisse verantwortlich zeichnet, auch die Physik-Technologie PhysX. Die "Soft Shadows" schaffen ebenfalls ihren Weg in die Spiele. Zwar können Besitzer von AMD-Karten auch auf einige dieser Methoden zurückgreifen, allerdings kostet dies mehr Leistung als auf einer gleich schnellen Nvidia-GPU.

Tony Tamasi, Senior Vice President of Content & Technology bei Nvidia, hat sich zu dieser Ankündigung wie folgt geäußert:

Wir sind erfreut, unsere langfristige Partnerschaft mit Ubisoft fortzusetzen und die aktuellste PC-Technologie in ihren Spielen zu implementieren. Durch GameWorks [das Programm für die Nvidia-Extras, Anm. d. Red.] waren wir dazu fähig, diesen hervorragenden Ubisoft-Spielen einzigartige Grafiken und Gameplay-Innovationen hinzuzufügen.

Während Nvidia-Besitzer nun einen Grund mehr haben, um sich auf die kommenden Ubisoft-Titel zu freuen, müssen AMD-Jünger hoffen, dass die Entwickler des Publishers ihre Probleme in den Griff bekommen. Zum Release von Watch Dogs etwa konnten manche PC-Spieler mit Radeon-Grafikkarte im Rechner den Open-World-Titel nur eingeschränkt oder gar nicht spielen. Ubisoft arbeitet bereits an der Fehlerbehebung (wir berichteten).

knallfix 14 Komm-Experte - 1963 - 5. Juni 2014 - 12:54 #

"Wir sind erfreut, unsere langfristige Partnerschaft mit Ubisoft fortzusetzen und dabei gleichzeitg einer großen Anzahl von PC Spielern den Stinkefinger zu zeigen."

Ubi sollte mal bei Square Enix nach der Adresse von Nixxes fragen.
Gute PC Ports sind möglich, ohne das eine Hälfte der Spieler "draußen bleiben muss*
Aber würde ja Geld kosten.

Makariel 19 Megatalent - P - 18310 - 5. Juni 2014 - 15:54 #

Jo, die haben bei Tomb Raider und Deus Ex saubere Arbeit geleistet. Die Next-Gen-Haare von Lara waren ja fast schon den Spielpreis wert ;-)

Novachen 19 Megatalent - 14947 - 5. Juni 2014 - 12:59 #

Nicht nur deswegen steht Nvidia für mich über AMD.

Halte PhysX sowieso für eine der wichtigsten Entwicklungen der letzten Jahre und auch für total unterschätzt, weil es bisher halt nicht wirklich sein volles Potenzial zeigen darf, ohne AMD User nicht wirklich auszusperren.
Aber Nvidia bekommt halt Ihre exklusiven Entwicklungen halt allgemein bei Spielen unter. AMD aus irgendwelchen Gründen nicht... die Spiele die AMD exklusive Sachen nutzen kann man wohl wirklich an vielleicht zwei, wenn überhaupt, Händen abzählen.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 5. Juni 2014 - 13:03 #

Das könnte vielleicht daran liegen, dass AMD seine Technologien im Gegensatz zu Nvidia auch der Konkurrenz zugänglich macht. TressFX beispielsweise. Du magst also ein Unternehmen, weils sich beschissen den Gamern und der Konkurrenz (ok, das ist noch nachvollziehbar) verhält und magst ein anderes nicht, weil sie fairer arbeiten? Sozial sozial..

Novachen 19 Megatalent - 14947 - 5. Juni 2014 - 13:08 #

Das wäre mir aber ziemlich neu, dass sämtliche ATI Technologien irgendwie öffentlich zugänglich wären?!

ATI sowie Nvidia haben welche Freigegeben und für die jeweilige Konkurrenz nutzbar gemacht, ja. Aber definitiv nicht alle. Die "Killerfeatures" sind auf beiden Seiten geschlossen und nur für die eigene Nutzung.

Jadiger 16 Übertalent - 5509 - 5. Juni 2014 - 13:15 #

Mantel gibt es also für Nvidia Karten wäre mir neu. Zugänglich TressFX läuft auf einer 7870 super auf einer 660ti kann man das vergessen, da braucht man schon eine 680 das nennst du also zugänglich. Nvidia hat aus diesem Grund AMD sogar vorgeworfen das mit Absicht gemacht zuhaben.
Soviel mal zu AMD macht das für alle Spieler, AMD macht genau das gleiche wie Nvidia bloß weniger erfolgreich.
AMD hat nach wie vor mit großen Problemen bei Spiel releases zu kämpfen.
Leistungs einbrüche sind bei AMD Karten auch normal, in Spielen wie CoD, Ac4, Titanfall, Watch Dogs usw.

blobblond 20 Gold-Gamer - P - 24478 - 5. Juni 2014 - 13:35 #

AMD Mantle: Zukünftig auch plattform- und herstellerübergreifend?
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Mantle-fuer-Nvidia-1097392/

"AMD Mantle-API: Intel und NVIDIA hatten kein Interesse an der Entwicklung"
http://ht4u.net/news/28627_amd_mantle-api_intel_und_nvidia_hatten_kein_interesse_an_der_entwicklung/

"c't: Es ist also zumindest möglich, dass beispielsweise Nvidia – angenommen die Firma wäre dazu bereit – mit ihren Kepler-Chips ebenfalls Mantle unterstützt? Dann müsste Nvidia die Low-Level-Details ihrer GPUs offenbaren...

Andersson: Ich verstehe, was Sie meinen. Mantle ist keine exklusive, konsolenartige AMD-Schnittstelle für GCN-Grafikchips. Mit Mantle ist es möglich, Feinheiten der GPUs auszunutzen. Zu spezifische Sachen lassen sich dagegen über Extensions realisieren. Es ist für andere Hersteller möglich, Mantle zu unterstützen."
http://www.heise.de/newsticker/meldung/APU13-Der-Battlefield-Schoepfer-ueber-AMDs-3D-Schnittstelle-Mantle-2045398.html

Jadiger 16 Übertalent - 5509 - 5. Juni 2014 - 14:17 #

Mantel ist derzeit nicht offen, es sollte offen werden ist es aber nicht. Das sind alles alte Berichte und seit dem release hat sich überhaupt nichts getan im Bereich Mantel. AMD hat mal gesagt es sollte für alle sein ist, es aber dann doch nicht geworden. Außerdem hat es wie zum start in Bf4 immer noch die alten Probleme, die ja in wenigen Wochen gefixt hätten sein sollen. Der Leistungs unterschied zu DX11 ist groß laut vielen Benchmarks da gibt es aber ein kleines Problem. Sehr viele haben auf einmal in Bf4 in Dx11 gebencht obwohl bekannt ist da Bf4 ab DX11.1 um ca. 20 bis 30% an Fps zulegt. Der unterschied zum aktuellen DX11.2 gegen Nvidia Karten ist praktisch minimal außer man hat eine Steinzeit Cpu mit einer high-End Karte.
Klar supported man nichts das Bugs hat und wenig bringt. Ich habe übrigens auch eine 290 falls das ganze so Nvidia Pro klingt.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 5. Juni 2014 - 13:39 #

Mantle wurden ja bereits über mir erwähnt. Und dass Nvidia TressFX nicht ausreichend performant implementiert.. Naja, das dürfte eher an der geringeren Performance im GPGPU-Bereich der in diesem Punkt stark abgespeckten Nvidia-Mainstreamkarten liegen. Nvidia mag sich halt die Option offenhalten, mit professionellen Anwendern noch einmal so richtig fett Kohle zu machen ;) .

Jadiger 16 Übertalent - 5509 - 5. Juni 2014 - 14:33 #

Hab ich auch gedacht das stimmt aber nicht den eine 580 ist Kepler in der Hinsicht überlegen. Bricht aber unter dem einsatz von TressFX komplett zusammen. Die 660Ti erreicht mit TressFX deutlich bessere Werte als die eigentlich in der disziplin stärke 580. Liegt also nicht daran, Vermutung kommt da schon auf das die Vorwürfe doch berechtig zu sein scheinen. Nvidia hat das ganze so gar mal genauer erläutert warum und wieso sie das behaupten. Es soll an irgend welchen Zyklen liegen, Nvidia hat da durchaus eine plausible Erklärung dafür. Ist aber doch schon etwas her auf jedenfalls hat Nvidia gemeint hätte man das geändert wäre es kein Problem auf Geforce Karten gewesen.

Azzi (unregistriert) 5. Juni 2014 - 13:08 #

Naja die allermeisten Spiele mit PhysX nutzen es kaum sichtbar oder als lassen es eh über die CPU berechnen. Spiele die das wirklich alleine mit Nvidia Hardware machen und daraus auch ein sichtbares Ergebnis zaubern, kannste an einer Hand abzählen.

AMD hat mit Mantle auch eine Technologie gebracht die je nach Konfiguration beachtliche Leistungssprünge bringt. Also faul war deren Entwicklungsabteilung auch nicht...

Novachen 19 Megatalent - 14947 - 5. Juni 2014 - 13:18 #

Ja das ist halt leider das Problem. PhysX wird nicht wirklich gut und effektiv eingesetzt. Wäre halt zu sehr viel mehr fähig.

Habe beispielsweise für FreeSpace2 eine PhysX Funktion da macht die PPU die komplette Berechnung von Gravitation und Schwerkraft, hat entsprechend auswirkungen auf Waffenfeuer, Schiffe, Trümmer und Asteroiden und hat daher sogar Spielrelevanten Einfluss. Ohne der PPU tatsächlich CPU basierend selbst bei diesem alten Spiel eine Diashow.
Ich verurteile es halt auch, dass PhysX zum Eyecatcher degradiert wird... was halt die totale Verschwendung und total am ursprünglichen Konzept der PPU vorbei geht.

Eigentlich sollte PhysX für spielrelevante Berechnungen sorgen, ohne dass sie zwangsläufig ins Auge fallen.
Eines der ersten Spiele die wirklich von einer PPU im ursprünglichen Sinne profitiert hätten, wäre Supreme Commander gewesen, wo ja jedes Geschoss berechnet wird. Leider von der CPU wodurch es ja teilweise selbst bis heute ab und zu nicht flüssig spielbar ist.

Aber was man nicht sieht oder hört, macht halt einen nicht wirklich an...

Cat Toaster (unregistriert) 6. Juni 2014 - 16:07 #

Niemand hat nVidia dazu gezwungen die Idee der separaten PhysX-Beschleuniger nach der Übernahme einzustampfen (ist ja keine nVidia-Erfindung, die Schweizer waren´s).

Niemand hat nVidia befohlen den Einsatz einer "kleinen" nVidia-Grafikkarte als PhysX-Beschleuniger in einem AMD-GPU-System zu unterbinden. Doch genau das tun sie.

Niemand hat nVidia befohlen das proprietäre PhysX in das ebenfalls proprietäre hauseigene CUDA zu integrieren.

Niemand hat nVidia befohlen in der PhysX-CPU-Emulation nur einen Kern zu nutzen, wissen wir doch alle wieviel Kerne auf modernen PCs beim Spielen seit einem halben Jahrzehnt Däumchen drehen. Das CPU-PhysX auf schon vor dem Jahr 2000 veraltete x87-Befehle setzt statt auf SSE und Multithreading bis Version 3.0 um die CPU besonders alt gegenüber der GPU aussehen zu lassen wollen wir dann auch nicht unerwähnt lassen.

Und niemand hat nVidia davon abgehalten PhysX in OpenCL und DirectCompute zu realisieren.

Die Technik ist somit leider da wo sein Besitzer sie hingepresst hat: In einer Nische.

Sicher würden manche Nutzer von AMD-GPUs zu einem separaten PhysX-Beschleuniger greifen wenn dieser einen Mehrwert böte.

Niemand geht so weit und verlangt ein Austauschabkommen...Das ist schon alles mit ganz viel Politik gewürzt.

Jadiger 16 Übertalent - 5509 - 5. Juni 2014 - 13:23 #

Dann bist du also ein Mutant oder so wenn eine Hand reicht bei dir.
http://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support

Azzi (unregistriert) 5. Juni 2014 - 14:32 #

Jo und davon sind die Hälfte unbekannte Spiele und bei den meisten gibts ohne PhysX noch ne Alternative die genauso gut aussieht.
Auf die schnelle fallen mir 2 Spiele ein die PhysX tatsächlich sichtbar nutzen: Metro (ein bissl) und Batman (sieht ganz nett aus)

Noodles 26 Spiele-Kenner - P - 75380 - 5. Juni 2014 - 14:36 #

Bei Borderlands 2 und Mafia 2 macht es auch einen sichtbaren Unterschied, ob man PhysX aktiviert hat oder nicht.

Jadiger 16 Übertalent - 5509 - 5. Juni 2014 - 14:41 #

Mit Metro hast du schon 2 Spiele, Batman sogar 3 also hast du da schon deine Hand voll. Planetside 2, Warframe, Mafia 2, Hawken, Ac4, CoD, Ghost, Borderlands 2 alles keine unbekannten Titel.

Ps: Sogar auf Andorid gibt es Physix.

Kinukawa 21 AAA-Gamer - P - 25745 - 5. Juni 2014 - 14:53 #

Ist einem dieser Spiele dieses Feature entscheidened? Kann ich das Spiel nicht spielen, wenn PhysX nicht vorhanden ist? Solange beide Fragen mit Nein beantwortet werden, kann ich noch sehr gut mit AMD leben.

Larnak 22 Motivator - 37541 - 5. Juni 2014 - 17:42 #

Und die Entwickler werden sich hüten, daran etwas zu ändern, solange Nvidia nicht den Ausfall an AMD-Käufern zu erstatten bereit ist. Und das wär wohl etwas teuer.

Larnak 22 Motivator - 37541 - 5. Juni 2014 - 17:38 #

Für mich ist das eher ein Grund, warum AMD über Nvidia steht. Dieser nervige Versuch seitens Nvidia, die PC-Spieler in eine 2-Klassen-Gessellschaft zu teilen, nervt.

firstdeathmaker 18 Doppel-Voter - 9333 - 5. Juni 2014 - 13:31 #

Exklusivität bei so etwas ist nie gut, jedenfalls nicht für uns Spieler. Können die nicht mal versuchen, gemeinsame Standards zu entwickelt und sich nur dadurch hervor zu heben, dass sie etwas schneller als die anderen in ihren Karten implementiert haben?

Sp00kyFox (unregistriert) 5. Juni 2014 - 13:49 #

ist zwar nicht begrüßenswert, andererseits freu ich mich, da ich mich jetzt wieder für eine nvidia karte entschieden hatte. allerdings aus dem grund, dass die opengl-treiber bei AMD von der performance einfach seit jahren nicht mithalten können mit denen von nvidia.

Ganesh 16 Übertalent - 5116 - 5. Juni 2014 - 14:07 #

Das ist doch wieder die alte Nvidia-Leier, sich Marktanteile über Absprachen zu sichern. Meiner Meinung nach sollte so was Wettbewerbshüter auf den Plan rufen. AMD ist mit prinzipiell offenen Standards sympathischer... immerhin scheint G-Sync gerade seinen verdienten Tod zu sterben...

Sp00kyFox (unregistriert) 5. Juni 2014 - 15:50 #

so sicher ist das nicht. der AMD-vorschlag der dann aufgenommen wurde in den vesa-standard ist zwar offen. allerdings brauch man dafür auch einen neuen monitor und eine entsprechende graka die das supported. ob man dann n neuen monitor + nvidia kauft oder neuen monitor + amd läuft dann wieder auf das übliche hinaus, welche firma der kunde halt eher preferiert.

Ganesh 16 Übertalent - 5116 - 5. Juni 2014 - 15:55 #

Na ja, nicht ganz. Es gibt heute, nach ca. einem halben Jahr nur sehr wenige G-Sync-Monitore, die zudem auch noch einen Aufpreis bekommen haben. Freesync oder wie auch immer es heißt, ist ein offener Standard, sodass jeder, der nach der Erscheinen von DP 1.2a einen Monitor kauft, davon profitieren kann. Wir reden hier also von einigen speziellen und teuren Monitoren, die es jetzt schon gibt vs. alle Monitore, die den neuen Standard ab Herbst (?) erfüllen.

Sp00kyFox (unregistriert) 6. Juni 2014 - 9:24 #

mal abwarten ob die monitor-hersteller mit freesync dann nicht auch n argument haben um den preis nach oben zu drücken. und falls nvidia sich entscheiden sollte, das gar nicht erst zu supporten, siehts auch problematisch aus. ein offener standard ist klar zu begrüßen, aber so ganz geschaukelt sieht die sache für mich noch nicht aus.

Noodles 26 Spiele-Kenner - P - 75380 - 5. Juni 2014 - 14:24 #

Mich freut das, da ich Nvidia-Besitzer bin und auch bleiben werde. Liegt daran, dass ich mit zwei AMD-Karten nur schlechte Erfahrungen hatte, mit Nvidia-Karten noch gar keine, das wirkt sich aus. ;) Außerdem find ich PhysX super.
Aber bei Watch Dogs scheint die Zusammenarbeit mit Nvidia nicht sehr viel gebracht zu haben, denn es sind nicht nur AMD-Besitzer, die Performance-Probleme haben.

Kinukawa 21 AAA-Gamer - P - 25745 - 5. Juni 2014 - 14:54 #

Meine Erfahrung mit Grakas ist genau umgekehrt. So ist es eben. ATI/AMD habe ich schon länger im Einsatz als Nvidia überhaupt existiert. PhysX ist super, wenn es mal vernünftig genutzt wird, doch das ist ja noch nicht der Fall. Mich kekst das schon an, dass ich je nach Spiel vielleicht eine andere Graka benötige. Also was früher Diskettenwechsel waren, sind jetzt also Grakawechsel. Ist nur geringfügig aufwändiger.

truetti72 (unregistriert) 6. Juni 2014 - 0:10 #

Wie immer bei diesen Geschichten: Wenn es nicht funktionieren könnte, euch nervt und es vorher auch noch bekannt ist - einfach nicht kaufen. Die Art des Protestes wirkt am meisten. Wenn es nur noch die Hälfte kauft, ist die "Partnerschaft" auch ganz schnell wieder vom Teppich. Wenn aber nun durch solchen Quatsch viele zum Garfikkartenwechsel greifen wird es immer wieder passieren. Lasst UBI sich doch mal die Pfoten verbrennen und spielt es halt n Jahr später. Es gibt zu Allem auch immer eine Alternative.

Larnak 22 Motivator - 37541 - 6. Juni 2014 - 0:18 #

Wenn es eine Möglichkeit gäbe, nur diese Zusammenarbeit nicht zu kaufen, wäre das wohl eine Option ^^

Ultrabonz 14 Komm-Experte - 2316 - 6. Juni 2014 - 5:47 #

hm...am Ende haben wir auf dem PC dann ATI oder Nvidia exklusive Spiele, genau wie bei Xbone und PS4. Ich sehe nicht, wo für mich als Gamer da der Vorteil liegt.

Deathsnake 20 Gold-Gamer - 22556 - 6. Juni 2014 - 8:13 #

Exklusivtitel nicht. Aber eben eine Graka die dir bessere Grafik bietet und besseren Support. Da ist die Entscheidung - Grafik oder Preis? AMD ist billiger aber hat viele Features nicht, weil Nvidia einfach mehr Geld hat in Forschung und neue Technik zu investieren.

Bin nach wie vor der Meinung: AMD abwickeln und die GPU zu Intel und die CPU zu Nvidia. Grund ist einfach das die beiden genug Geld in der Hand haben um vernünftig zu forschen. Intel könnte Nvidia im GPU Markt viel eher entgegentreten. Nvidia wiederum kann Intel beim CPU Markt dann Feuer unterm Arsch machen. AMD hingegen schiebt sich seit Jahren noch so an und selbst die Konsolen brachten bisher grad mal 200 Millionen Gewinn ein. Das ist für Nvidia und Intel Peanuts. Die können sich es leisten mal 1 Milliarde in Entwicklung zu stecken.

Ja die AMD Fanboys werden nun aufschreien, aber es macht keinen Sinn so. Intel ist gelangweilt vorne und bringt seit 4 Jahren!! keine CPU mehr raus die wirklich mehr leistet als die Sandy Bridge Gen. Nvidia reagiert auf die neue Gen von AMD mit einem Kepler Refresh und ist wieder vorne. Da muss sich was ändern. Und nach meiner Meinung ist AMD als Underdog einfach auf verlorenen Posten. Guck dir mal die Chancen an und keiner setzt auf AMD - MS könnte mit dem Xbox Deal auch im Surface AMD APU anbieten. Stattessen nun die 3. Gen nur Intel, RT mit Nvida. Razor im Blade und im Edge? Intel/Nvidia only, Alienware, Asus - auch fast 100 % Intel. Von 100 Notebooks haben evtl. 10-15 eine AMD CPU drin die keine Leistung hat. Die, zugegebenen guten APU sind in wenigen drin (unter 5!) Tablets mit AMD APU? Gibt's keine. Wie stehen dann die Chancen das AMD mal eben 1-2 Milliarden für CPU und GPU Forschung zur Verfügung hat? Selbst die billigen GPU Preise bringen AMD nicht voran und Nvidia knappert Quartal für Quartal am AMD Sektor.
Q3/13
http://www.computerbase.de/2013-11/gpu-markt-intel-und-nvidia-legen-zu-amd-verliert
Q4/13
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/29886-grafikkarten-markt-amd-verliert-marktanteile.html

Ganesh 16 Übertalent - 5116 - 6. Juni 2014 - 8:59 #

Sorry, das ist keine Meinung, sondern dein Wunschdenken.

1) bessere Grafik/besserer Support? Wo das denn? Meinst du die zahlreichen Absprachen, aufgrund derer Spielehersteller regelmäßig 'vergessen' Spiele für AMD-Karten zu optimieren? Komischerweise ist es dann eine Woche bis zu einem Monat nach dem Launch ohne Probleme möglich... Das Nvidia als Resultat dieser Marktposition mehr Geld hat, ist klar - das ist aber die Folge von Wettbewerbsproblemen, nicht deren Ursache.

2) Die CPU-Technik kann AMD nicht verkaufen und niemand könnte sie aus dem Unternehmen herauslösen, auch nach einer Insolvenz. Und es würde wahrscheinlich auch niemand wollen. Die x86-Lizenz von AMD beruht nach meinem Kenntnisstand auf einem Vergleich mit Intel aus den 90ern und lässt sich nicht übertragen. Auf gut Deutsch: Wenn AMD nicht mehr ist, kann Intel erst recht machen, was sie wollen, zumindest so lange, bis anderen Plattformen (ARM oder Power) sich zu Konkurrenten entwickeln (das dürfte dem PC natürlich genau gar nix bringen, weil er von x86 abhängig ist).
Und wer sollte eine x86-Linzenz wollen? Nvidia verdient mit ARM sehr gut und sieht bei der Konkurrenz, wie man mit x86 ordentliche Verluste einfährt, weil Intel alles mit seiner Marktmacht plattwalzt. Passenderweise auch abgesichert über Absprachen...

3) Technischer Fortschritt: Intel hat es nicht nur aufgrund von AMD nicht nötig, Plattformen zu entwickeln, die gigantische Leistungssprünge liefern. Es gibt einfach zu wenig Anwendungen dafür. Und dann verdient sich das Geld im Mobilbereich eh leichter. Natürlich greifen die mit Haswell-E gerne all die Bescheuerten ab, die zu viel Geld haben.

4) APUs in Laptops: AMD hat auf dem Laptop-Markt schon seit 10 Jahren oder mehr Probleme. Grund dürften Absprachen sein. In der Gegenwart ist es auf jeden Fall so, dass die guten APUs zwar da sind, aber selten verbaut werden, weil sich beim Mediamarkt-Käufer schon lange festgesetzt hat: AMD=billig, aber wenig Leistung.

5) GPUs: Die fallenden Marktanteile gehen eher auf Gesamtumstände zurück, wie es der CB-Artikel auch herausstellt. Immer mehr Ultra-Books und Tablets ohne dezidierte Grafik bedeuten mehr Marktanteil für Intel (siehe oben) und der PC-Markt insgesamt schrumpft. Nix neues. Sicherlich schlecht für AMD, aber um daran was zu ändern, braucht es nicht weniger, sondern mehr Konkurrenz.

Und das die Konkurrenz für Nvidia notwendig ist, wird in diesen Wochen der Titan Z sei Dank sogar im Hochpreis-Premium-Segment deutlich. Und wo AMD nicht deutlich besser ist (wie wahrscheinlich in diesem Fall), sind sie wettbewerbsfähig. Natürlich baut Nvidia gute Chips, sie haben aber vor allem vernarrte Fanboys, die sogar eine Titan Z kaufen, egal, wie sinnvoll das Ding ist und Absprachen, die immer wieder suggerieren, dass man nur mit Nvidia das 'richtige' Spielerlebnis bekommt. Wer letzteres glaubt, fällt schon auf Marketing rein.

Larnak 22 Motivator - 37541 - 6. Juni 2014 - 15:13 #

Gab es da nicht auch Geschichten, dass AMD gar keine Chance hat, bei Media Markt und Co nennenswerte Ausstellungsflächen mit deren Modellen zu bekommen, da es Absprachen mit Intel gibt, die das verhindern?

Cat Toaster (unregistriert) 6. Juni 2014 - 15:42 #

ja, Intel musste dafür über eine Milliarde Dollar Strafe an AMD zahlen, gemessen an der Summe die AMD wiederum für die ATi-Übernahme hat springen lassen und dem Schaden der in über einem Jahrzehnt angerichtet wurde war das allerdings nicht mehr als ein Tropfen auf den heissen Stein.

nVidia bedient sich im GPU-Segment einer Intel recht nahen Methodik. AMD muss vom Consumer leben, nVidia nicht.

Larnak 22 Motivator - 37541 - 6. Juni 2014 - 15:59 #

Immerhin haben sie es aber in beide aktuellen Konsolen mit Grafikchips geschafft, was ja auch nicht ganz schlecht ist.

Cat Toaster (unregistriert) 6. Juni 2014 - 16:50 #

Ja, nur ganz doll viel Geld wird da wohl nicht hängen bleiben, da werden Sony und Microsoft schon knackig verhandelt haben. Trotzdem ist das für die Marktdurchdringung natürlich ungeheuer wichtig wenn die Entwickler auf allen drei "Lead-Plattformen" AMDs GCN und x86 vorfinden.

Eben deshalb verwundert es (nicht), wenn für Konsolen zwangsweise auf AMD optimiert werden muss und auf dem PC "vergisst" man das alles gegen nVidia-Cash.

Immerhin sind in den letzten drei Wochen mit Wolfenstein, Watch_Dogs und Murdered Soul Suspect Titel erschienen die ihre Konsolen-Auslegung kaum verbergen können, es verwundert dann schon wenn erstere beiden auf dem PC mit AMD-GPUs dann plötzlich ein wundersames Eigenleben entwickeln und sich davon ein sperriger Titel noch "nVidia-Optimiert" nennt.

Für mich wirkt die UBI-Partnerschaft eher als versuche nVidia hier seine Marktanteile auf dem PC irgendwie durch Pseudo-Exklusivität und letztlich eine künstliche Benachteiligung des Mitbewerbs zu erkaufen/zu sichern. Eine Analogie zu Intel in früheren CPU-Zeiten drängt sich da schon auf.

Das ist nicht viel anders als AMD es mit Mantle und EA/Frostbite gemacht hat, wobei wenn ich das richtig erinnere ist Dice mit der Idee auf die GPU-Hersteller zugegangen und nVidia wollte halt nicht. Wenn AMD mit Mantle den Fuss in die Engines bekommt (wie schon bei Frostbite/CryEngine/Nitrous/Unreal/Asura) und die passende GPU-Architektur auf zwei Konsolen und dem PC etabliert sieht, passende Mantle-Extensions für OpenGL auf Linux sind ebenfalls wahrscheinlich, dann muss sich nVidia im Consumer-Segment schon künftig ganz schön strecken.

Immerhin können nVidia-Nutzer trotzdem noch wunderbar BF4 spielen (im Rahmen des in BF4 möglichen).

Wenn ich AMD wäre, ich würde mich momentan nicht liquidieren :)

Und ob wir ohne Mantle überhaupt schon über DX12 und DX11 nVidia "Wundertreiber" reden würden, wage ich zu beweifeln. Wichtig ist, dass es spannend bleibt und beide Hersteller dabei auch Geld verdienen, insbesondere AMD.

Larnak 22 Motivator - 37541 - 6. Juni 2014 - 17:03 #

"Für mich wirkt die UBI-Partnerschaft eher als versuche nVidia hier seine Marktanteile auf dem PC irgendwie durch Pseudo-Exklusivität und letztlich eine künstliche Benachteiligung des Mitbewerbs zu erkaufen/zu sichern."
Das dürfte wohl ins Schwarze getroffen sein :)

Cat Toaster (unregistriert) 6. Juni 2014 - 9:00 #

Ist klar, in einem schrumpfenden Markt in dem AMD immer noch mehr Marktanteil (P2) als nVidia (P3) hat, soll man AMD abwickeln? In einem gesamten Jahr hat AMD 1,4% Marktanteil verloren, nVidia 0,2%.

Bei diesen dramatischen Verhältnissen sollte man den Markt komplett auflösen zum Schutz der Verbraucher.

Azzi (unregistriert) 6. Juni 2014 - 9:25 #

Du willst also Monopole kreieren zum Wohle des Verbrauchers? Das ist ziemlich abwegig und funktioniert weder in der Theorie noch in der Praxis.

Larnak 22 Motivator - 37541 - 6. Juni 2014 - 15:09 #

Ja, weil Intel gerade für seine günstigen Preise bekannt ist ... Da wären dann die Nvidia-Karten wahrscheinlich sogar noch günstiger :p Nene, das kann schön so bleiben. Und solange Nvidia nicht bereit ist, deren Techniken offener zu gestalten, werden sie sich eben auch nicht wirklich durchsetzen. Gerade bei den Grafikkarten kann AMD Nvidia in den letzten Jahren recht gut paroli bieten, da gibt's ein ständige Hin und Her. Keine Ahnung, warum die Karten trotzdem nicht von mehr Leuten gekauft werden, für mich ist das unverständlich, da in aller Regel (teilweise deutlich) günstiger bei gleicher Leistung.

Cat Toaster (unregistriert) 6. Juni 2014 - 17:37 #

Bei der 290/290X hat es schon ewig gedauert bis Custom-Kühler verfügbar waren die ohne Gehörschutz genutzt werden konnten und die Verfügbarkeit war generell nach Release sehr bescheiden.

Zudem hat AMD das Versprechen endlich einen weniger ohrenbetäubenden Referenzkühler zu verbauen nicht gehalten.

Die Tri-X/Vapor-X sind die Liga die ich erwartet hatte.

Das hat mir dann einen sechsmonatigen nVidia-Ausflug eingebracht wo ich dann aus erster Hand erfahren durfte dass das Gras da immer noch nicht grüner ist :)

Bis Ubi da mal PhysX nachgepatcht hatte in AC4 hatte ich es auch schon durch. Lebe immer noch. Komisch. Wie umgekehrt in Thief mit Mantle :)

Eine verrückte Welt...

Und wie Alex ja selbst verlinkt hat: AMD 18.3% vor nVidia mit 16,6% Marktanteil. Für den Trauerflor ist das sicher zu früh.

Slaytanic 25 Platin-Gamer - - 62104 - 6. Juni 2014 - 17:43 #

Der wahre Fanboy favorisiert jetzt schon Monopole!
Bei jedem normal denkenden Menschen verursacht so ein geschwafel Bauchschmerzen.

Michl Popichl 24 Trolljäger - 52778 - 6. Juni 2014 - 14:58 #

ach sooooo, nur kantenglättung uns so geschmarri, ich dachte da an ne zipfelmütze für altair oder so extravagante sachen.

FPS-Player (unregistriert) 6. Juni 2014 - 16:49 #

Find ich super. Ja, ich weiß, ich ziehe mir den Zorn der AMDler auf (damit kann ich leben), aber NVidia baut nun mal die besten GraKas, daher ist so eine Kooperation sinnvoll. Und wenn ich mir das erste Posting hier ansehe, dann merkt man, das es stimmt. Ich habe aus meinem AMD-PC seinerzeit auch die hauseigene Karte ausbauen und gegen eine GeForce ersetzen lassen. Einmal eine AMD-GraKa und nie wieder. Die Performance ist wirklich zum Teil unterirdisch, wo bei den NVidias noch nicht mal der Lüfter hochfährt.

Larnak 22 Motivator - 37541 - 6. Juni 2014 - 17:05 #

"aber NVidia baut nun mal die besten GraKas"
worauf fußt denn diese Behauptung? Die "Krone" hüpft doch ständig zwischen beiden Herstellern hin und her.

"Die Performance ist wirklich zum Teil unterirdisch, wo bei den NVidias noch nicht mal der Lüfter hochfährt."
Ahja ... 100€-AMD vs. 500€-Nvidia oder wie? :p

Slaytanic 25 Platin-Gamer - - 62104 - 6. Juni 2014 - 17:41 #

Die Fanboy-Krone fällt halt nicht so einfach vom Kopf. ;) Und der Rest des Textes ist Unsinn pur, eigentlich unnötig da noch irgendetwas zu schreiben.

Azzi (unregistriert) 6. Juni 2014 - 21:52 #

Die aktuellen AMD Grakas sind nahezu in jedem Preisbereich deutlich besser, muss dich da leider enttäuschen. Einzig die 750ti im Lowsegment und die gtx780 taugen was. Die R9 270(x), 280(x) und die R9 290(x) sind exzellente Grakas und in dem Preisbereich denen von Nvidia deutlich vorraus.
Und das sage ich als aktueller Nutzer einer Nvidia GTX770...

Sp00kyFox (unregistriert) 7. Juni 2014 - 0:18 #

dann wirste ja auch selbst wissen, dass preis/performance nicht das einzige kriterium bei der wahl einer graka ist. mir war zB die performance in opengl wichtig und da ist es auch bekannt, dass AMD seit jahren da schlicht nicht mithalten kann. auch gibt es bei der shader-programmierung oftmals probleme mit AMD-karten.

Cat Toaster (unregistriert) 7. Juni 2014 - 0:59 #

ja, OpenGL verpennt AMD seit Jahren...

Azzi (unregistriert) 7. Juni 2014 - 10:22 #

Oder ignoriert es bewusst weils ne tote Schnittstelle ist? Außer für jedes 100ste Spiel das auch mal für Linux erscheint ist Open GL doch komplett irrelevant.

Sp00kyFox (unregistriert) 7. Juni 2014 - 12:20 #

ist vor kurzem gerade erst ein highbudget-titel mit opengl erschienen: Wolfenstein TNO. ansonsten gibts im indie-bereich auch den einen oder anderen entwickler der darauf setzt.
und neben den kommerziellen games hast du noch die opensource- fanprojekt-szene, welche oftmals opengl preferiert. ganz so tot ist diese schnittstelle also nicht, wird im gegenteil ja sogar noch aktiv weiter entwickelt.
wer sich natürlich wirklich nur für die spiele von großen publisher interessiert, der mag darauf verzichten können. mir war es jedenfalls wichtig, genauso wie CUDA im übrigen.

Spiritogre 19 Megatalent - 13401 - 7. Juni 2014 - 23:14 #

Äh, für die ganzen Open GL Indie-Titel braucht man aber nicht extra eine Gamer-Karte. Da reicht selbst Intel-Onboard-Grafik ... ;)

Sp00kyFox (unregistriert) 8. Juni 2014 - 1:08 #

es gibt auch in dem bereich performance-intensive titel ;)

Cat Toaster (unregistriert) 7. Juni 2014 - 12:29 #

OpenGL ist mitnichten tot noch eine Schnittstelle die nur für 0815-Gaming oder nur Linux genutzt wird. Sie ist plattformübergreifend verfügbar. Im Prinzip hätte man damit schon 22 Jahre gegen Direct3D anstinken können. Das ist nur einem gewissen Konzern aus Redmond nicht recht.

Gerade die Anwendungen mit denen unsere heißgeliebten Spielwelten designt werden wie Maya, Lightwave wie der gesamte Profi-CAD-Bereich sind da durchaus recht sensibel. Ist halt schade wenn man offene Standards propagiert und dann in einem wesentlichen Bereich in dem man ja nicht zuletzt selbst hochpreisige FirePro-Karten verkaufen will auf die Nase fällt.

Es geht tatsächlich nicht immer nur um Spiele. AMD schneidet sich mit seine OpenGL-Performance und seinen Linux-Treibern ins eigene Fleisch, hier geht´s nur um Software. Die richtige Hardware um sich in den Segmenten endlich mal Freunde zu machen hat man.

Warum man sich bei den "Steam-Machines" erstmal für nVidia entschieden hat liegt genau erstmal daran.

Spiritogre 19 Megatalent - 13401 - 7. Juni 2014 - 23:21 #

Tja, dumm nur, dass niemand (relevantes) für Linux und Open GL entwickelt. Die PS4 und XBox One haben AMD Hardware verbaut, wenn also Spiele auf spezielle Grafikkarten hin optimiert werden, dann künftig eher auf die AMD Karten ...

Übrigens hat der Konzern aus Redmond nur bedingt etwas damit zu tun, dass die Spielehersteller lieber DX einsetzen. Denn DX ist eben nicht nur Direct Draw sondern ja u.a. auch für Sound, Steuerung und andere Dinge nutzbar und vereinfacht damit die Entwicklung erheblich.
Es würde ja sonst gar keinen Sinn machen, für DX zu entwickeln, wenn man mit Open GL leicht plattformübergreifend Spiele machen kann. Nur ist die andere Plattform (Linux) halt so unbedeutend, dass die meisten Hersteller dieser Mehraufwand einfach nicht wert ist.

Der Vergleich mit CAD Anwendungen ist übrigens müßig, da für Spiele und Spieler völlig irrelevant.

Labrador Nelson 31 Gamer-Veteran - P - 266755 - 2. Juli 2014 - 0:42 #

NVIDIA rules! ;)