Hardwareroundup Spezial - Neues von nVidia, DX11 verzögert sich

Bild von Dennis Ziesecke
Dennis Ziesecke 29505 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreicht

18. November 2009 - 16:47 — vor 7 Jahren zuletzt aktualisiert

Beim Grafikspezialisten nVidia hat sich in den letzten Tagen einiges getan, da wurde ein Grafikkartenmodell veröffentlicht und ein anderes nur einen Fachpublikum präsentiert. Gerüchte über Fertigungsprobleme der neuen Topmodelle mit DirecX11-Unterstützung stehen im Raum und es wird gar gemunkelt, nVidia würde kein Interesse mehr an Computerspielern als zahlungskräftige Kundschaft haben. Die Zeit ist also reif für einen

Spielehardware-Newsroundup Spezial - nVidia-Edition

Mittelklasse: Verkauf der GT240 hat begonnen

Nachdem vor einigen Wochen bereits eine neue Lowend-Reihe mit neu konzipierten DX10.1-tauglichen Grafikchips vorgestellt wurde, folgt jetzt ein Mittelklassemodell. Gamersglobal konnte zu den G210 und GT220 genannten Einsteiger- und Büromodellen seinerzeit keine Kaufempfehlung aussprechen.
Die jetzt neu hinzugekommene GT240 soll die bereits etwas betagte 9600GT ablösen und mit der ATI HD4670 konkurrieren.

nVidia setzt bei dem GT240 erstmal auf den GT215-Kern, welcher über 96 Shadereinheiten, 32 TMUs und 8 ROPs verfügt. Die Speicherbandbreite liegt bei 128 Bit, genutzt werden kann wahlweise GDDR5 oder GDDR3, ersteres mit 1700MHz, letzteres mit nur 1000MHz Takt. Mit diesen technischen Daten wäre eine GT240-Karte einer 9600GT bis auf die Speicherbandbreite und die ROPs technisch voraus. Allerdings werden bei der GT240 sowohl Chip als auch Shader teils deutlich niedriger getaktet. Nur 550 MHz Chiptakt (9600GT: 650MHz) und 1340MHz Shadertakt (9600GT: 1625MHz) sorgen für deutlich niedrigere Füllraten.

  Und tatsächlich erreicht der neue Grafikchip nicht ganz die Leistung des Vorgängers, reiht sich eher zwischen der 9600GSO und der 9600GT ein. Immerhin liegt die Leistung über der ATI HD4670. Auch der Support für nVidias hauseigene PhysX-Physikbeschleunigung ist ein Pluspunkt der GT240. Leider liegt der Preis mit ca. 70-80 Euro viel zu hoch. Die schnellere 9600GT bekommt man für 50-60 Euro und sogar eine schnellere HD4770 gibt es für weniger als 80 Euro zu erwerben. Die Unterstützung von DX10.1 ist kein wirklicher Vorteil, nutzt doch kaum ein Spiel diese Schnittstelle aus. Ein ausführlicher Test findet sich bei computerbase.de, verlinkt in den Quellenangaben.

Luxusgut: nVidia präsentiert Tesla-Fermi-Grafikkarten

Eine für Spieler leider erneut eher uninteressante Präsentation von nVidias neuem Grafikchip hat gestern auf der Supercomputing Conference 2009 in Portland, Oregon stattgefunden. nVidia präsentierte dem Publikum dort die Profikarten Tesla C2050 und Tesla C2070. Diese Karten sind für GPGPU-Computing gedacht und sollen unter anderem in Supercomputern für mehr Rechenleistung sorgen. Bei der eingesetzten GPU handelt es sich aber um nVidias heiß ersehnten "Fermi" aka GF100/G300, welcher auch als Konkurrenz zu ATIs HD5000-Serie gehandelt wird.

Wie bei einer solchen Veranstaltung nicht anders zu erwarten, wurden keine Spielebenchmarks gezeigt, es wird dafür speziell auf die professionellen Features der GPU eingegangen. So hebt nVidia die Leistung bei doppelter Rechengenauigkeit (Dual Precision, DP) hervor, welche ungefähr achtmal so hoch wie bei den Vorgängerkarten auf Basis des GT200-Chips ist. Weiterhin wird für Fermi-Karten ECC-RAM genutzt, welcher durch eine integrierte Fehlerkorrektur im sensiblen HighEnd-Markt gefordert wird. Bis zu 6GB dieses teuren Speichers kann eine entsprechende Karte ansprechen.
Die Leistungsaufnahme der Teslakarten soll unter Last weniger als 190 Watt betragen, Idle-Angaben waren nVidia offenbar noch nicht zu entlocken.

Auch wenn keine Angaben zur Gamingperformance gemacht wurden, kann man doch versuchen, von den bekannten Daten auf bisher unbekannte Faktoren umzurechnen. So haben Redakteure von hardware-infos.com und semiaccurate.com den Schluss gezogen, dass die für Spiele wichtige Single-Precision-Leistung eher gering ausfallen dürfte und auch die wahrscheinlichen Taktraten der vorgestellten Fermi-Modelle verhältnismäßig niedrig sein dürften. Damit wäre die Leistung bei Computerspielen eher eingeschränkt und dem wahrscheinlich reicht hohen Preis nicht angemessen. nVidia hat also mit dem Fermi-Chip offenbar  noch einiges an Arbeit vor sich, bis dieser konkurrenzfähig auf dem Markt für Gaming-Grafikkarten ist. nVidias CEO Huang hat jedenfalls schon vor einiger Zeit den Kommentar in den Raum geworfen, dass nVidias Gewinn nur bei Profikarten gemacht wird, der Gamingmarkt in aus diesem Gesichtspunkt uninteressant. Wenn man sich die geplanten Preise der Tesla-Fermi-Karten so anschaut, kann man diese Aussage verstehen: die C2070 mit 6GB VRAM soll 3999 US-Dollar kosten.

Verzögerungen: Warten auf DX11

Viele nVidia-orientierte Computerspieler haben auch nach der Vorstellung der rechenstarken HD5000-Grafikkarten von ATI erst einmal mit dem Kauf einer neuen Grafikkarte abgewartet. Die Hoffnung, dass entweder mit Fermi ein überragender Grafikchip auf den Markt kommt und ATIs 5000ern die Rücklichter zeigt oder auch nur Taktieren auf sinkende Preise mit dem Eintreffen von ernsthafter Konkurrenz lassen viele potentielle Käufer abwarten. Und akut benötigt wird momentan auch weder DX11 noch die Rechenleistung einer HD5970.
Allerdings verdichten sich die Anzeichen, dass es in absehbarer Zeit nichts mehr wird, mit Fermi-basierten Grafikkarten. Die für den professionellen Markt vorgesehenen Tesla-Modelle aus dem vorherigen Absatz sind erst für das zweite Quartal 2010 angekündigt. Und um die GPU für den Gamingbereich interessant zu machen, hat nVidia noch einges an Arbeit vor sich. ECC-RAM ist teuer und für Spieler uninteressant, viele GPGPU-Spezialitäten wie den großen L2- und L3-Cache der Chips benötigt ein Spiel auch nicht. nVidia muss den Chip auf jeden Fall massiv beschneiden, um konkurrenzfähige Preise bieten zu können. Bisher gibt es keine Bilder, Vorstellungen oder auch nur technische Daten einer Gaming-GT300. Daher bleibt zu befürchten, dass mit entsprechenden Grafikkarten wohl erst im Frühjahr 2010 gerechnet werden kann. In diesem Jahr wird aber auf keinen Fall auch nur ein GT300-Grafikchip käuflich zu erwerben sein. Semiaccurate.com beschreibt die Probleme in einem längeren Artikel recht gut, der Link findet sich in den Quellenangaben.

Dennis Ziesecke Freier Redakteur - 29505 - 18. November 2009 - 15:09 #

Persönliche Meinung: nVidia hat bisher einen guten Grund gehabt, keine Gamingperformance der neuen Chips herauszuposaunen.

Tchibo 13 Koop-Gamer - 1448 - 18. November 2009 - 15:17 #

Die Frage, die sich mir stellt ist folgende:

Verdient nVidia wirklich "so wenig" an Gamingkarten, das es sich nicht mehr lohnt in diesen Markt zu investieren?
Aus dem Chipsatzgeschäft wollen Sie auch aussteigen.

Was bleibt also noch?

Grafikkarten für den Workstation Bereich. Also die Tesla Reihe.
Der ION Chipsatz soll weitergeführt werden.

und dann??

Ein Blick auf die Produktpalette der nVidia Seite sagt noch folgendes aus:

Quadro: is Tesla in klein
Tegra: Quasi der ION Chipsatz für kleine Mobile Geräte, wie Handys und eventuell kommende Mobile Spielekonsolen.
Wird damit mehr Geld gemacht als bei GeForce Produkten?

Dennis Ziesecke Freier Redakteur - 29505 - 18. November 2009 - 15:19 #

Laut Jen-Hsun Huang, dem CEO von nVidia, bringt das Profisegment 95% der Gewinne, viel Geld kann bei Chips wie dem GT200 aber eh nicht hängen bleiben. Diese Entwicklung war für den Gamingbereich eine Sackgasse und hat offenbar nur dazu gedient, die GPGPU-Sparte voranzubringen.

Tchibo 13 Koop-Gamer - 1448 - 18. November 2009 - 15:26 #

Das mit GPGPU viel Geld gemacht werden kann, sieht man ja darin wie CUDA von nVidia beworben wird.
Bin selbst davon sehr begeistert und nutze das CUDA in 2 meiner Maschinen.

Mein Zotac ION ITX Mainboard spielt FullHD Filme mit 6% Atom330 Auslastung ab.
Dank VDPAU.

Und mit dem BoinC spendiere ich diversen Projekten Rechneleistung meiner GeForce Karte.

Dennis Ziesecke Freier Redakteur - 29505 - 18. November 2009 - 19:12 #

Jetzt stocherst du in einer Wunde. Ich habe ja ein Auge (oder auch mehrere) auf das kommende Asus Netbook mit 330er Atom, 3GB RAM, 320er HDD und ION geworfen.

Marco Büttinghausen 19 Megatalent - P - 19331 - 20. November 2009 - 15:21 #

Man macht mit Gamerkarten kein Geld? Also ich kann ja verstehen das Nvidia Fehler gemacht hat und die 200er Chips zu teuer sind und somit nur schlecht gewinnbringend runter skaliert werden können und sich sehr schwer gegen ATI aktuell tun, aber ich lass mir nicht erzählen das Nvidia in den letzten 10 Jahren mit 3D-Beschleunigern für Spiele kein Geld verdient hat, das ist in meinen Augen Unsinn.

Dennis Ziesecke Freier Redakteur - 29505 - 20. November 2009 - 20:53 #

jammern auf hohem Niveau. Wer sich daran gewöhnt, pro Karte 3400 Dollar Gewinn zu machen, jammert eben, wenn andere Modelle mit dem gleichen Chip nur auf 20 Dollar kommen..

Marco Büttinghausen 19 Megatalent - P - 19331 - 21. November 2009 - 16:02 #

Ja das klingt einleuchtend.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)