HW-News Folge 130: GTX Titan Z, 16 GByte-Grafik, Nvidia Pascal
Teil der Exklusiv-Serie Hardware-News

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

29. März 2014 - 13:26 — vor 10 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!
An jedem Wochenende kredenzt euch Dennis Ziesecke die aus Spielersicht wichtigsten Hardware-Entwicklungen der aktuellen Woche. Natürlich gibt es dabei auch manchen Blick über den Tellerrand.

Die Game Developers Conference ist seit einer Woche vorbei. Zeit für die nächste Veranstaltung, auf der sich Gaming-Hardware präsentieren lässt. Die aktuelle Woche stand im Zeichen der GTC, Nvidias Hausmesse für Grafik- und Mobilkram also. Entsprechend widmet sich diese Ausgabe der HW-News tatsächlich ausschließlich der Grafik und den Karten. Denn wo Nvidia Dinge präsentiert, kann AMD nicht weit sein. Und siehe da, im Laufe der GTC gab es von AMD tatsächlich zwei Konterpräsentationen. Zugegeben, eine davon macht nur als Gerücht die Runde, passt aber zeitlich sehr gut zu Nvidias teurer Monster-Grafikkarte Titan Z.
AMDs R9 295 X2 soll ebenso wie die Asus Ares II auf eine Wasserkühlung setzen

AMD Radeon R9 295 X2 – Dual-GPU am 8. April
Eigentlich klingt es sehr einfach: Willst du deine schnellste Grafikkarte beschleunigen, bastle dir einfach zwei GPUs auf eine Platine. Ein wenig verbindendes Geraffel und ein passender Treiber dazu, einen hohen Preis dran, und fertig ist die Monster-Grafikkarte für profilierungssüchtige Gamer. So einfach wäre es, wenn da nicht die Physik immer wieder einen Strich durch die Rechnung machen würde. In diesem Falle lautet das Problem: Abwärme. Denn für eine teure Luxus-Grafikkarte werden natürlich keine Mittelklasse-GPUs verbaut, sondern möglichst die aktuellen Topmodelle.

Bei AMD wären das also die Hawaii-GPUs. Diese lassen sich allerdings schon einzeln kaum bändigen und benötigen neben einem hochwertigen Netzteil auch eine gute Kühlung. AMD umgeht das Hitzeproblem mit einer Wasserkühlung. So sollen auf der für den 8. April erwarteten Radeon R9 295 X2 tatsächlich zwei vollwertige Hawaii-GPUs mit insgesamt 5.120 Shadereinheiten, 512 Bit Speicherinterface und 8 Gigabyte GDDR5-RAM arbeiten. Das VRAM allerdings kann nicht komplett genutzt werden, jede GPU bekommt davon jeweils nur die Hälfte zu sehen.

Die Hitzebekämpfung übernimmt eine kompakte Wasserkühlung, wie sie bereits im vergangenen Jahr bei der Asus Ares II zu sehen war. Über die Taktraten des Grafikmonsters ist noch nichts bekannt, hier dürfte die Leistung der Kühlung maßgeblich für das Endergebnis verantwortlich sein.

Neben der Physik wartet jedoch ein weiteres Problem auf AMD: Der Treibersupport für eine Multi-GPU-Grafiklösung ist, ebenso wie für herkömmliche Crossfire-Grafikverbunde, elementar für die Performance. Ohne entsprechendes Treiberprofil gewinnt ein Spiel keinen müden Frame hinzu, da ohne Profil nur eine GPU genutzt wird. Und auch wenn AMD bei der generellen Treiberqualität in den letzten Jahren aufgeholt hat, die Multi-GPU-Software hat weiterhin keinen guten Ruf. Wer also die voraussichtlich 900 bis 1.000 Euro für eine solche Luxuskarte investiert, sollte viel Geduld mit AMDs Softwareabteilung mitbringen.
Die Kraft der zwei Titanen-Her(t)zen: Geforce GTX Titan Z für "nur" 2.999 US-Dollar
Nvidia GTX Titan Z – verdoppelte Power für 3.000 Dollar
Noch bevor die Gerüchte von AMDs Doppel-Hawaiitoast die Runde machten, präsentierte Nvidias CEO Huang Jen-Hsun auf der GTC (GPU Technology Conference) die GTX Titan Z. Dabei handelt es sich um eine Grafikkarte mit zwei vollwertigen GK110-GPUs und insgesamt 12 Gigabyte GDDR5-Speicher. Die Rechenleistung gibt Nvidia mit satten 8 Teraflops an – mehr als genug für 4K-Bildschirme, Multi-Monitor-Gaming und aufwändige CUDA-Rechenaufgaben. Auch wenn Nvidia die Karte unter dem Geforce-Label startet, der Preis von 3.000 US-Dollar zielt überhaupt nicht auf private Gaming-Kunden, sondern auf professionelle Anwender ab.

Die beiden GK110-Grafikchips bieten satte 5.760 Shadereinheiten, jede der GPUs kann auf ihren eigenen, 6 Gigabyte großen, GDDR5-Speicher zurückgreifen. Insgesamt wird die Karte also 12 Gigabyte VRAM bieten. Beim Takt der GPU hat Nvidia allerdings einen kleinen Rückschritt gegenüber der GTX Titan Black angekündigt – anstelle von 889 Mhz sollen es um die 700 Mhz werden. Dafür benötigt Nvidia offenbar keine Wasserkühlung, um der Hitze der beiden stromhungrigen GPUs Herr zu werden, das Kühlsystem erinnert an das der GTX 690.

Der Aufpreis von gut 1.000 US-Dollar gegenüber einem Pärchen aus zwei Titan Black ist übrigens aus unserer Sicht nicht unbedingt gerechtfertigt: Durch den geringeren Takt werden zwei Titan Black schneller arbeiten als die Titan Z.
AMD setzt auf 16 GB VRAM und schnelle GPU – nur nicht unbedingt für Gamer
AMD FirePro W9100 mit 16 Gigabyte VRAM
Vor kurzem haben wir über eine Grafikkarte mit 8 Gigabyte VRAM berichtet, die oben erwähnte Multi-GPU-Karte Titan Z kommt auf 12 Gigabyte (die allerdings nicht gemeinsam genutzt werden können). AMD will noch einen drauflegen und präsentiert die für den professionellen Einsatz vorgesehene FirePro W9100 mit satten 16 Gigabyte GDDR5-RAM.

Als GPU kommt der Hawaii-Chip zum Einsatz, der auch auf den flotten Gamerkarten Radeon R9 290X verbaut wird. 2.816 Shadereinheiten sollen dem CAD-Kunden daher 2,67 Teraflops an Leistung auf den Monitor bringen. In Verbindung mit dem 16 Gigabyte-Speicher sollen entsprechend programmierte Anwendungen einen Leistungsvorteil gegenüber den im Profisegment immer noch beliebteren Nvidia-Karten bringen. Für Gamer allerdings rechnen sich weder die teuren FirePro-Karten noch Nvidias Quadros und Teslas – die gegenüber den Gamermodellen gesteigerte Double-Precision-Rechenleistung benötigt kein Spiel. Und die auf CAD und 3D-Modelling optimierten Treiber versprechen keinen Performance-Gewinn bei Crysis oder Battlefield.
Maxwell, Volta, Pascal, so viele Physiker - da kann auch Nvidia schon einmal durcheinanderkommen
Nvidia lässt auf Maxwell  "Pascal" folgen
Bislang sah Nvidias Karte für die GPU-Zukunft so aus, dass auf die bereits zaghaft anklopfende Maxwell-Generation ein Chip namens Volta folgen sollte. Nun scheint Volta einige Jahre in die Zukunft gerückt zu sein, an seine Stelle tritt nun Pascal. Weiterhin handelt es sich bei den Namensgebern um berühmte Physiker. Auch die Codenamen der GPUs werden sich von den Bezeichnungen ableiten – so steht GK110 (Geforce Titan und 780 Ti) für Geforce Kepler 110, GM107 (GTX 750Ti) für Geforce Maxwell. Pascal wird daher wohl in Form einer GP1x0, Volta als GV1x0 auf den Markt kommen.

Bis dahin wird es aber noch etwas dauern. Dieses und wohl auch das kommende Jahr werden von Maxwell dominiert, Pascal wird erst im Jahr 2016 folgen. Volta dürfte damit frühestens 2018 auf den Markt gelangen. Für Pascal sieht Nvidia eine technische Neuerung vor, die ursprünglich Volta von seinen Vorgängern abgrenzen sollte: 3D-Memory oder auch Stacked-RAM. Dabei werden mehrere Speicherchips übereinander auf einem Modul angeordnet, um so nicht nur Platz zu sparen, sondern auch eine höhere Bandbreite zu erreichen.

Übrigens ist es mit genau so einem Speicherstapel SanDisk kürzlich gelungen, eine winzige Micro-SD-Speicherkarte mit 128 Gigabyte Speicherkapazität zu entwickeln. Gerüchteweise ist der Speicherstapel des Kärtchen so dick, dass nicht einmal Platz für die ansonsten bei SanDisk übliche rote Lackierung der Karte war, ohne die Spezifikationen zu sprengen.

Bei Pascal soll der Speicherturm entgegen früherer Aussagen Nvidias nicht direkt auf der GPU untergebracht werden, sondern rund um den Grafikchip. Nvidia geht von einer Bandbreite von etwa 1.000 Gigabyte pro Sekunde aus – das wäre ein beachtlicher Anstieg gegenüber der 336 Gigabyte pro Sekunde bei einer GTX 780 Ti. Zudem soll die Energieeffizienz des Speichers durch die 3D-Stapeltechnik um den Faktor 4 verbessert werden.

Eine zweite Neuerung soll Pascal von Maxwell abheben: NVLink soll die Kommunikation zwischen GPU und CPU verbessern. So soll der Grafikchip ohne Umwege über den PCIe-Bus mit dem Prozessor kommunizieren können, was fünf- bis zwölfmal schneller als via PCIe vonstatten gehen soll. NVLink soll also PCIe ersetzen. Entsprechend hat Nvidia Pascal nicht als Steckkarte für PCIe gestaltet, sondern als proprietäre Erweiterungslösung, die direkt auf einen entsprechenden Anschluss des Mainboards gesteckt werden muss. Das sind schlechte Nachrichten für Aufrüster, die nicht gleich die Mutterplatine auswechseln wollen. Wobei es recht wahrscheinlich sein dürfte, dass Nvidia die Pascal-Module auch auf PCIe-Adapterkarten bastelt, um so den klassischen PC-Schrauber zufriedenzustellen. Die NVLink-Vorteile gehen in diesem Falle natürlich verloren.

Über weitere Maxwell-Karten hat Nvidia, sehr zur Enttäuschung vieler Beobachter, nichts weiteres verlauten lassen. Wir rechnen aber damit, dass sich schnellere Maxwell-Karten erst im Herbst zeigen werden. Dann wohl direkt in 20nm-Fertigungsstrukturen, was weitere Vorteile bei der Energieeffizienz (oder wahlweise der Performance) mit sich bringen wird.
Mclane 22 Motivator - P - 33117 - 29. März 2014 - 13:35 #

Hach wie schön. Grafikkartengemetzel wie in alten Zeiten.

Amco 19 Megatalent - P - 19342 - 29. März 2014 - 13:50 #

Schöner Artikel. Danke Dennis.

Der Marian 21 AAA-Gamer - P - 29632 - 29. März 2014 - 14:00 #

Schöne Zusammenstellung der aktuellen Entwicklungen.

Deathsnake 20 Gold-Gamer - 22556 - 29. März 2014 - 14:34 #

Danke für die News. Ich freu mich wie Schnitzel auf die Maxwell Karten und dann erst der Refresh. Da geht einiges aufwärts ;)

Frage ist nur noch: Gegen welche Karte muss meine GTX 770 den Platz tauschen? 870 oder erst 970?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 29. März 2014 - 14:42 #

Ich würde ja Maxwell im Herbst schon starten lassen. Ein Refresh wird doch sicher nicht vor Mitte/Ende 2015 erscheinen. So eine 20nm-870 mit Maxwell-Stromspargenen hätte doch was.

IhrName (unregistriert) 29. März 2014 - 15:20 #

Ich bin gespannt was AMDs neue Karte liefern wird. Die Gerüchte dahingehend halten sich ja leider im Gegensatz zu Maxwell in Grenzen.

Sancta 15 Kenner - 3295 - 29. März 2014 - 15:22 #

Ich hoffe mal, dass bei zukünftigen Grafikvergleichstests zwischen Konsole und PC bitte die "Titan Z" benutzt wird ;-)

Amco 19 Megatalent - P - 19342 - 29. März 2014 - 16:13 #

Das aber schon etwas unfair ;-) PS4/X1 haben zusammen nicht so viel Power ;-)

Sancta 15 Kenner - 3295 - 29. März 2014 - 16:49 #

Das zeigt dann doch die Überlegenheit des PCs. Den minimalen Preisunterschied kann man einfach mal ignorieren ;-)

Quod erat demonstrandum

Amco 19 Megatalent - P - 19342 - 30. März 2014 - 10:32 #

Seit wann achtet der PC-Gamer aufs Geld? Hauptsache schnell oder ;)

Jadiger 16 Übertalent - 5509 - 29. März 2014 - 18:52 #

Das wird ab Herbst noch unfairer wenn die PS4 sich gegen Maxwell behaupten muss. Die Ps4 wid dann immer noch 400 Euro kosten aber die alten PC Karten werden im Preis fallen. Das man solch hohe Preise bei Konsolen üner Jahre rechtfertigt finde ich auch schon etwas heftig. Zum start ok aber keine 200 Euro nach 7 Jahren bei der Ps3.

Amco 19 Megatalent - P - 19342 - 30. März 2014 - 10:33 #

Es gibt irgendwo die PS4 für 400 Euro? Sorry ;)

Deathsnake 20 Gold-Gamer - 22556 - 29. März 2014 - 17:52 #

Da reicht doch auch eine GTX 750 non TI! :wahn:

Cat Toaster (unregistriert) 29. März 2014 - 17:43 #

Ich als profilierungssüchtiger Anwender/Spieler nutze seit drei Jahren Crossfire+TripleScreen mit erweitertem Desktop (also vier Displays), aktuell nVidia SLI um da mal die Lage zu checken. Die Geduld mit der Softwareabteilung muss man bei nVidia nicht minder aufbringen, immerhin hat nVidia die meine in sechs Monaten schneller aufgebraucht als AMD in drei Jahren, die Baustellen liegen nur an anderen Stellen. Seit dem glorreichen 334.89 kann man mit aktiviertem SLI und erweitertem Desktop nicht mal ein Fenster verschieben ohne Display-Corruption. nVidia bringt es auch nicht fertig SLI-Profile vom Treiber zu trennen und separat zu veröffentlichen wie AMD seit Jahren (CAP). nVidia bringt es nicht zustande vor einem Treiber-Update die Display-Konfiguration zu speichern und anschließend wieder zu laden, so darf man Display-Gruppe und Anordnung, SLI und Rahmenkopensation jedes Mal neu einrichten und weil SLI-Profile nicht einzeln erhältlich sind darf man das recht oft. Noch dazu die bescheuerte "GeForce-Experience" die man sich bei der Express-Installation einfängt und die garantiert zur Unzeit rasch mal die Platte nach Spielen durchsucht um für mich unbrauchbare Profile für Grafikeinstellungen zu hinterlegen. nVidia kann auch nicht im Desktop-Betrieb die nicht geforderte Karte komplett inkl. Lüfter abstellen.

AMD hat in den genannten Punkten weit mehr als nur aufgeholt, zumindest darf ich jüngst diese Erfahrung machen. Mit Mantle haben sie Microsoft und nVidia sogar in hektische Betriebsamtkeit versetzt. Ob TrueAudio mal was wird muss man abwarten, wahrscheinlich wird es wohl eher ein tristes Schattendasein führen wie PhysX. Das es nVidia es AMD-Nutzern nicht ohne Klimmzüge gestattet eine kleine nVidia-Karte als PhysX-Beschleuniger zu verwenden ist wohl politisch motiviert.

Im Gegenzug kann nVidia 3D erheblich besser, PhysX und CUDA (was ich persönlich allesamt nicht brauche). SLI funktioniert dagegen sehr häufig im Fenstermodus, Crossfire ausschließlich im Vollbildmodus. Für mich als "FSX im Fenster-Nuter" ist das natürlich ein Trumpf, für den Rest der Welt mutmaßlich ein unmerkliches Randdetail. Der AMD-Nutzer fährt dann mit OpenCL auch nicht immmer schlechter als mit proprietären CUDA aber es kommt natürlich wieder im Detail auf die Anwendung an.

Im Prinzip jeder Top-Titel läuft mit Crossfire und SLI, meist bei AMD schon seit zwei Jahren besser ab Release als mit SLI. Als "Simmer" fährt man hier leider wieder bei nVidia oft besser, der SLI-Support im ETS2 ist etwa gegeben, im Crossfire nicht bzw. mit Bastelarbeit verbunden. Aber die ETS-Engine ist eh ein Krampf, vom FSX von 2006 brauchen wir nicht zu reden und in iRacing funktioniert beides, das Sim-Volk ist da etwas eigen.

Natürlich kann das VRAM bei Dual-GPUs komplett genutzt werden, nur eben pro GPU die Hälfte, es addiert sich nicht. Ist jetzt weder neu noch bei nVidia anders.

Das nVidia Mikroruckler seit der 680 besser im Griff hat ist auch ein Gerücht was sich hartnäckig hält. Weder Battlefield 4, noch Shadow Warrior, noch Metro LastLight will man mit zwei 780ern im SLI unter 60fps spielen, es mag zwar bei nVidia messbar besser sein, für mich ist es dennoch komplett unbrauchbar. Wähle ich die Settings so dass ich bei mindestens 60fps rauskomme, ist mein Erlebnis nach drei Jahren Crossfire und sechs Monaten SLI gleich gut. Wer natürlich mit 30-35fps auf einer Single-GPU toll klar kommt bei hohen Einstellungen und meint ne zweite GPU wäre eine super Sache der schiesst sich selbst ins Knie, weil er dann plötzlich viel weniger erträgliche FPS-Raten von 40-45fps vorfindet und dann sogar weniger Details fahren muss als vorher um ein flüssiges Erlebnis bei 60fps zu haben. Da kann man dann natürlich nölen und von Framepacing-Treibern für ein Dutzend Titel die man vielleicht eh nicht spielt Wunder erwarten oder man stellt sich einfach darauf ein. Wer sich eine Mehrkern-CPU gekauft hat in den letzten acht Jahren dem wird vielleicht aufgefallen sein dass damit ebenfalls nicht alles x-Mal so schnell mit läuft wie vorher. Da ist die Unterstützung von Multi-GPUs schon seit Jahren um ein vielfaches breiter.

Trotz allem: Wer mit 120/144Hz-Wiedergabe, 3D, 4K, Multi-Displays bei hohen Einstellungne liebäugelt kommt um Multi-GPUs kaum herum, es soll ja so Technikbegeisterte geben. Ich sehe auf Single-Displays Crossfire und SLI als gleichwertig an, bei 3D hat nVidia klar die Nase vorn, bei Multi-Displays haben beide unterschiedliche Probleme. Die von nVidia habe ich ja schon beschrieben, AMD hatte in der Eyefinity-Gruppe am via Display-Port angeschlossenden Monitor immer wieder starkes Tearing, Maus-Cursor-Corruption im erweiterten Desktop und kapitale Freezes wenn man auf einem Display spielt und auf dem anderen ein Video streamt und wenn sie eins mal gefixt haben kommt das andere wieder, seit der 5970 bis zur 7970 im Crossfire mache ich das mit, ich weiß nicht ob´s momentan beim Hawaii und den neueren Treibern mal endlich alles gefixt wurde aber wenn die 295 X2 kommt, werde ich es wissen, denn bei nVidia finde ich´s gerade auch nicht so geil, zumal ich mir da als nVidia-Kunde obendrein verkaspert vorkomme, so oft wie sie ihre alte GPUs mit minimalen Änderungen ständig neu aufgießen.

Ansonsten kommt es leidenschaftslos auf die individuellen Anforderungen an. Ich kann jedenfalls nicht ultimativ erkennen dass einer klar die Nase vorn hat. Natürlich ist die Zielgruppe die sowohl MultiDisplays und MultiGPUs vollumfänglich nutzt sehr sehr klein.

So hoffe ich dann doch wenigstens eine differenzierte Profilierung über real existierende Luxusprobleme im Highend-Segment abgeliefert zu haben, denn für 1000,-€ erwarte ich da von AMD wie nVidia mehr auf der Softwareseite. ;)

Jörg Langer Chefredakteur - P - 469800 - 29. März 2014 - 18:10 #

Danke für deine Ausführungen in Artikel-Länge :-)

MrFawlty 18 Doppel-Voter - 9845 - 29. März 2014 - 18:23 #

Ich finde der Kommentar hätte sogar 2 EXP verdient!

Jadiger 16 Übertalent - 5509 - 29. März 2014 - 19:43 #

So sieht ein echter AMD Fan aus. Micro Rcuklen gibt es umfangreiche Test das ist kein Gerücht. Es ist auch kein Gerücht das AMD KArten viel mehr Hardware fps haben wie Software fps. Jetzt sollte man wissen was das überhaupt ist, Hardware Fps sind die Fps die die Karte einfach raushaut werden in Benchmarks angezeigt. Software Fps sind die fps die man überhaupt auf dem Monitor sieht bei Nvidia Karten ist das 1:1 bei AMD Karten sind die Hardware Fps meist 1/3 höher ( Quelle Toms Hardware so wie alles was ich hier schreibe.)
Display Suport unter Windows ist der Verbrauche bei AMD Karten fast doppelt so hoch im Crossfire als im Sli gerade bei vielen Monitoren ein großer negativ Punkt. Wenn Karten nicht direkt von AMD kommen kann man den Treiber suport praktisch ganz vergessen und die Treiber bei AMD sind im bereich Crossfire nicht mal im Ansatz besser. Ab der 290 hat sich die Lage zwar entscheidend verbessert, davor war es überhaupt nicht Konkurrenz fähig zu Sli. Also wie kannst du ernsthaft jemand Corsifire empfehlen, AMD schaft es nicht mal die Leistung ihrer Singel Gpu Karten auf einer Leistungs grenze zuhalten. AC4, CoD, Titanfall nur als Beispiele wir eine 280x von einer GTX760 geschlagen. Und die 770 ist auf einmal so schnell wie die 290 sogut sind die Treiber das eine deutlich schnellere Karte aufeinmal eingeholt wird.

Dann schreibst das Nvida die Leute verkaspert weil ständig neue alte Gpus neu ausgießt. Hallo AMD macht das sogar noch krasser die verbessern überhaupt nichts und nennen das das R9 260 bis auf die 290, 290x sind alles alte Gpus. Bei Nvidia wurde wenigstens höhere Speicherband breite und Gpuboost 2.0 eingeführt bei AMD überhaupt nichts.
Mantel läuft übrigens immer noch nicht unter Bf4 hat immer noch die gleichen Bugs wie zum start. Ich habe mehre PCs und ja auch einen mit einer 290 nur ist Mantel keine option. Außer man steht auf weniger Sichtweite und Grafik Details wann sollte das mal start November 013 heute haben wir April 2014 so gut wie. Sie haben es nicht geschafft Mantel fehlerfrei umzusetzen von den Standbildern alle paar Sekunden ganz zu schweigen. Dann könnte ich dich fragen als 7970 Besitzer der ja so gut wie nichts davon hat weil Mantel nur auf der 260x, 290, 290x optimiert ist. Super Werbe Aufwand für eine Api die Monate nach Release immer noch nicht spielbar ist soll eine Konkurrenz zu DirectX sein. Beim release hieß es noch das patchen wir in ein paar Wochen raus das war am 1 Februar man müsste sich eher hier verarscht vorkommen.
Ms ist viel eher unter druck weil sie keinen Bock mehr haben auf die 720p vergleiche der Xboxone. Denn ist Mantel egal nur nicht das ihre Konsole so schlecht abschneidet und da gibt es eben nur einen weg das zu verbessern.
Ps: man kann alles einzeln an abstellen bei Nvidia Karten wie Experience und hat sogar sogar so ein mächtiges toll wie den Inspector. Aber gut wer schon Crossfire unter der 290 gut findet den kann man nicht mehr helfen. Ab der 290 ist es sehr nahe an Sli aber davor eben mal gar nicht! Gibt einen super artikel auf Toms Harde über Crossfire und Sli dann kanst alles nachlesen was ich geschrieben habe.

Cat Toaster (unregistriert) 29. März 2014 - 20:09 #

Nach dem ersten Satz habe ich aufgehört zu lesen. Gruß vom AMD-Fanboy mit zwei 780ern im SLI, bis vor vier Wochen waren es sogar noch drei. :-)

Larnak 22 Motivator - 37541 - 29. März 2014 - 23:13 #

Wer "So sieht ein echter AMD Fan aus." schreibt als Reaktion auf einen Beitrag, in dem folgender Satz im Fazit steht:

"Ich kann jedenfalls nicht ultimativ erkennen dass einer klar die Nase vorn hat."

ist wohl schon mal direkt als Nvidia-Fanboy zu identifizieren :p deshalb auch nach dem ersten Satz nicht weitergelesen. Ich mag fundierte Erfahrungsberichte, wie ich ihn hier von Cat Toaster sehr lesenswert bekommen habe, keine idealistischen Grabenkämpfe von Leuten, die über ihre Sympathien nicht hinwegsehen können ... Dass du dir scheinbar immer noch kaum Mühe gibst, deine Beiträge angenehm lesbar zu gestalten, macht's dann auch nicht besser.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 31. März 2014 - 16:31 #

Ich habe die flapsigen Wort bei der AMD-Karte genutzt, es sollte aber wohl klar sein, dass ich auch die 3000-Euro-Titan ähnlich einschätze. Für die AMD-Karte sind gerüchteweise 500 Watt Leistungsaufnahme im Gespräch. Ein Preis von etwa 1000 Euro. Die Titan Z dürfte nicht viel dahinter liegen, kostet dazu aber 3000. Wo das noch Relationen sind, die ein normaler Gamer vertreten kann mag man mir erklären, so recht nachvollziehbar ist es wohl nicht. Wer beruflich mit dem Setting arbeitet - ok. Und es ist niemandem abzusprechen, für sein Hobby so viel auszugeben wie er mag. Sinnvoll ist das alles aber wohl meist nicht. Und oft profiliert man sich dann doch über den PC - und wenns nur vor sich selbst ist.

Nagrach 14 Komm-Experte - 2677 - 30. März 2014 - 10:25 #

Hehe. Man merkt das Chris Roberts wieder da ist. Die neuen Grafikkarten müssen wieder was echtes leisten. Hoffentlich reicht meine GTX770 wenigstens für mittel bis hohe einstellungne in Star Citizen aus.

Cat Toaster (unregistriert) 30. März 2014 - 10:38 #

Bei 800x600 bestimmt ;)

MrFawlty 18 Doppel-Voter - 9845 - 30. März 2014 - 11:48 #

Vielleicht gibt es ja auch noch ein Stretch-Goal "Retro-Mode", wo man das in 320x200 mit Sprite-Raumschiffen und Kugel-Lasern spielen kann.
Das wird dann aber nur 2-3 Jahre gut laufen, danach sind die Rechner zu schnell dafür.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 30. März 2014 - 12:08 #

So wie der EGA-Modus für Privateer aus der PCPlayer? :D

Deathsnake 20 Gold-Gamer - 22556 - 30. März 2014 - 15:31 #

Das war der CGA Modus ^^ Auf der letzten Seite - VGA Modus für Snoobs!

Cat Toaster (unregistriert) 30. März 2014 - 13:18 #

Piu, Piu, Plöp, Plöp -> http://www.youtube.com/watch?v=hc8OLjfHJQI

Scheisse, das macht immer noch Spaß!