nVidias neue LowEnd-Grafikkarten: kein Kauftipp

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 29696 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Dieser User unterstützt GG mit einem Abonnement oder nutzt Freimonate via GG-Gulden.Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreicht

12. Oktober 2009 - 20:53 — vor 7 Jahren zuletzt aktualisiert

Auch nVidia ist mit dem heutigen Tage endgültig im 40nm-Zeitalter angekommen. Mit diesen modernen Fertigungsstrukturen fertigt der Hersteller seine heute auch für den Retail-Markt vorgestellten Grafikkarten namens G210 und GT220 (in preiswerten Komplett-PCs finden sich diese Karten schon seit einiger Zeit). 40nm bedeuten einerseits eine geringere Leistungsaufnahme und damit weniger Wärmeabgabe, andererseits führen kleinere Fertigungsstrukturen aber auch zu preiswerter herzustellenden Grafikchips. Klingt nach einem guten Deal sowohl für nVidia, als auch den Endkunden. Zumindest für nVidia stimmt das auch, doch betrachten wir lieber erst einmal die Fakten.

Die neue Chips bieten zudem auch noch Unterstützung für DirectX10.1, obwohl nVidia bislang ausschließlich auf DX10 gesetzt hat und auch des öfteren zu verstehen gab, DX10.1 wäre überflüssig. Einige Spiele wie HawX gewinnen durch die Nutzung von DX10.1 allerdings recht beachtlich an Leistung und auch die Ursprungsversion von Assassins Creed verfügte noch über einen Support für DX10.1, welcher für höhere Frameraten sorgte. 

Der G210 ist allerdings nicht für Spieler entwickelt worden. Nur 16 Shadereinheiten ("Cuda-Cores" wie nVidia gerne betont), 4 ROPs und 8 TMUs sorgen in Verbindung mit einem nur 64Bit breiten Speicherbus für wenig Freude. PhysX wird mit so wenigen Shadereinheiten auch nicht unterstützt, als Physik-Zweitkarte eignet sich der G210 also auch nicht. Einzig als preiswerte Officekarte oder für den Home-Theatre-PC wäre sie sinnvoll einzusetzen. Man sollte aber auf die Kühlung achten, trotz Fertigung in 40nm verbauen einige Hersteller offenbar laut lärmende Lüfter. Der Preis der G210-Karten soll sich bei ca. 40 Euro einpendeln.

Etwas schneller arbeiten Karten mit dem GT220-Chip. Auch hier steht auf der Plus-Seite DX10.1 und die moderne 40nm-Fertigung. Der maximal 1024MB große DDR2 oder GDDR3-VRAM ist mit 128 Bit angebunden, allerdings takten die Modelle mit DDR2 den Speicher mit nur 500 MHz, während die teureren Versionen mit GDDR3 auf 1000MHz kommen. Die insgesamt 48 Shadereinheiten greifen auf 8 ROPs und 16 TMUs zurück, was die Karte immerhin deutlich schneller als ihren kleinen G210-Bruder arbeiten lässt.
Erste Modelle werden zu Preisen ab ca. 60 Euro angeboten. Leider ist die gebotene Leistung eher gering, so dass man von einem Kauf eher absehen sollte. Eine ältere 9600GT gibt es zu ähnlichen Preisen, diese arbeitet aber deutlich schneller als die GT220-Karten.

Eine sinnvolle Lücke im Sortiment gibt es für die heute vorgestellten Karten noch nicht. Es ist aber zu befürchten, dass ältere Modelle wie die 9500GT, 9600GT, 9600GSO oder auch die immer noch sehr beliebte 9800GT zugunsten der neuen 40nm-Modelle bei ausreichender Verfügbarkeit eingestellt werden, obwohl diese immer noch mehr Leistung bei geringeren Preisen bieten.

Dennis Ziesecke Freier Redakteur - P - 29696 - 12. Oktober 2009 - 20:34 #

Meine Meinung: Überflüssig wie ein Kropf und eindeutig KEIN Kauftipp. Diese Karten dienen einzig und allein dazu, nVidia endlich wieder Gewinn in die Kassen zu bringen, Leistung gibts dann anderswo. Und bedenkt, auf diesen Chips wird wohl auch die DX11-Mittelklasse basieren - wahrscheinlich nur weiterhin ohne DX11-Funktionen, die dem Fermi vorbehalten sind. Und selbst das nur per Treibertrick, Tesselation beherrscht der Fermi-Chip ja nicht einmal.

Gainward hat sich vor kurzem erst aus dem Markt der ATI-Karten zurückgezogen um ausschließlich nVidia-Karten zu produzieren. Ob sie das schon bereuen?

SynTetic (unregistriert) 12. Oktober 2009 - 21:21 #

Ich habe dir mal das Logo auf die richtige Größe gebracht. Du kannst es dann ab sofort für alle nVidia-News weiterverwenden.

Dennis Ziesecke Freier Redakteur - P - 29696 - 12. Oktober 2009 - 21:40 #

Oh danke. Deswegen habe ich schon vor einiger Zeit mal gefleht, endlich wurde ich erhört :D .

gnal 12 Trollwächter - 1080 - 12. Oktober 2009 - 21:56 #

Scheint so, als hänge Nvidia gerade angezählt in den Seilen.

Rondrer (unregistriert) 12. Oktober 2009 - 21:58 #

Ich frag mich echt für wen die Karten gedacht sind? Wer soll sowas sinnvoll verbauen?
Für Bürorechner sind Onboard-Grafikchips definitiv die bessere Wahl und auch für Multimediarechner halt ich sie nur bedingt für sinnvoll (da kommt es natürlich auch drauf an, was die Hersteller für Karten mit den Chips backen).
Für Spieler sowieso nicht geeignet, da fragt man sich welche Nische die Chips bedienen sollen. Ich seh keine.

Dennis Ziesecke Freier Redakteur - P - 29696 - 12. Oktober 2009 - 22:10 #

Ich sehe da auch keine Zielgruppe und werde sie daher für unser Ladensortiment auch nicht vorschlagen bzw. einkaufen. Und da bin ich nicht der einzige.

In fast allen Punkten hängt nVidia hier ATI um einige Monate (und bei DX10.1 sogar: Jahre) hinterher. Hey, die GT220 können jetzt Ton über HDMI herausgeben ohne ein Zusatzkabel zum Board zu benötigen.

Charlie von SemiAccurate lästerte sehr knuffig : "Und das beste an diesen Karten ist, dass sie nur drei Quartale zu spät gekommen sind."

Die GT240 (Siehe Roundup!) ist ähnlich sinnfrei für den Kunden. Aber auch hier - mehr Geld für nVidia, weniger Leistung für den Käufer. Ist nen Deal für den Hersteller, immerhin.

Den G210 findet man übrigens gerade sehr gerne in klassischen 399 Euro PCs von Acer, Microstar/Medion oder ähnlichen. Und das, wo die Dinger kaum mehr Leistung haben, als ein guter Onboardchip. Aber DIE haben ja einen schlechten Ruf.

Vielleicht hätte nVidia die GPUs wenigstens für 2-3 GB VRAM zertifizieren sollen. Mit viel RAM verkauft sich auch der letzte Schrott. Leider.

thomas95 06 Bewerter - 68 - 12. Oktober 2009 - 22:52 #

Man gut ich habe eine GTX 260.
Überall sparen sie und wer muss leiden?
Natürlich wie die Spieler.

cromsche (unregistriert) 12. Oktober 2009 - 23:53 #

hey dod,

nur als kleiner hinweis und auch nicht sonderlich wichtig. der g210 scheint fuer den retailmarkt nur 210 zu heissen. also ohne g. wird jedenfalls so von zahlreichen herstellern veroeffentlicht.

Dennis Ziesecke Freier Redakteur - P - 29696 - 13. Oktober 2009 - 7:02 #

Da nVidia das Ding selbst G210 nennt, bleibe ich dann mal dabei :

http://www.nvidia.de/object/product_geforce_g210_de.html

cromsche (unregistriert) 13. Oktober 2009 - 13:10 #

Da ist sich nvidia aber selber nicht gruen. Auf der englischsprachigen seite wird von geforce 210 geredet und auch bei allen namenhaften herstellern: msi, zotac club3d, sparkle, gigabyte.

melone 06 Bewerter - 1512 - 13. Oktober 2009 - 8:55 #

Also nVIDIA fertig nicht selbst, sondern läßt wie auch ATI bei TSMC fertigen. Etwaige zeitlich Verzögerungen haben oftmals mit Problemen bei TSMCs Produktionsprozess zu tun.

Karten in diesem Leistungssegment haben durchaus ihre Berechtigung, was dann aber nicht stimmt ist der Preis.

Ich würd mich über nVIDIAs aktuelle Misere jedenfalls nicht freuen, denn je angeschlagener nVIDIA ist (Stop der Chipsatzentwicklung wegen Lizenzstreitigkeiten mit Intel, DirectX11 Hardware steht noch aus), desto weniger Konkurrenz gibt es, sprich die Gefahr für langsameren Fortschritt und monopolistische Preisentwicklung steigt.

Was ich schön finden würde, ist, wenn nVIDIA einen Teil ihrer Strategie mit propritären Lösungen auf einigen Felder aufgeben würde, aber davon träumt man ja bei fast jedem Hersteller. Aber vorsicht: nVIDIA hat eine Menge KnowHow und tut eine Menge für den Spielebereich, gerade im Zusammenarbeit mit Entwicklern. Es wäre schade, wenn's sie nicht mehr gäbe und wir nur noch Intel und ATI hätten.

Earl iGrey 16 Übertalent - 5042 - 14. Oktober 2009 - 0:13 #

Das stimmt natürlich, aber ein versemmeltes Jahr bzw. eine vergeigte Produktfamilie bedeuten noch nicht unbedingt das Ende einer so starken Firma. Ich wünsche mir auch einen lebendigen Markt mit ausreichend Anreizen für die Hersteller zu kundenfreundlichen Angeboten und beständigem technologischen Fortschritt.

melone 06 Bewerter - 1512 - 14. Oktober 2009 - 9:08 #

Es ist ja nicht nur eine Produktfamilie.

Die erste DirectX11 Runde geht wohl an ATI und nVIDIA muß nächstes Jahr erst einmal beweisen, daß sich Fermi gut skalieren und preiswert produzieren läßt oder Gründe aufführen, die die Mehrkosten rechtfertigen, wenn sie nicht ihre Gewinnmarge senken wollen.

nVIDIA ist bei der PS3 vertreten, welche sich zum Glück besser verkauft. Auf der Wii und Xbox360 läßt ATI die Pixel tanzen.

nVIDIA steckt in vielen Macs und mit den neuen Intel CPUs wird, aus derzeitiger Sicht, in Zukunft erstmal der Chipsatzaspekt entfallen und nur noch die reine Option als Grafikprozessorhersteller bleiben. Da gibt's aber auch ATI und was Apple überhaupt nicht mag ist es teurere Chips einzubauen.

Mit den in den nächsten Jahren zu erwartenden CPU/GPU-Komibchips wird wohl auch mehr des Chipsatzgeschäftes auf dem PC-Sektor entfallen. Auch hier bleibt, sofern nVIDIA nicht noch ein x86 Design hervorkrempelt, nur der GPU Bereich übrig. Sollte Fermi 2 ähnliche Probleme haben wie Fermi oder verschiebt sich der Spielebereich spürbar in Richtung Streaming, dann sind sie mehr als angezählt.

Kein Wunder, daß nVIDIA nach Möglichkeiten der GPU Einsatzes auch abseits des Spielemarktes sucht und seine Produkte dafür vorbereitet. Es ist nur immer ein schmaler Grad, wann ein größeres oder ein kleineres Update die sinvollere Lösung ist. Im Ideafall hat man weise vorausgeplant. Dumm gelaufen ist's dann, wenn man ein Produkt entwickelt hat, daß zwar seine Zeit voraus ist, es den Markt aber nicht interessiert. Frage ist dann wie gut die Kassen gefüllt sind.

Dennis Ziesecke Freier Redakteur - P - 29696 - 14. Oktober 2009 - 9:44 #

Sobald Apple flächendeckend auf die Core i-irgendwas umsteigt, wars das dann auch für nVidia im Mac.. ;)

melone 06 Bewerter - 1512 - 14. Oktober 2009 - 19:14 #

Ich frage mich wie die Chancen stehen, daß mit einem ausgereifteren OpenCL sich Apples Fokus etwas von CPUs auf GPUs verlagert. Es wäre ein richtiges Novum, wenn Apple, abseits des 3GS, Systeme ohne offensichtliche Flaschenhälse auf der GPU Seite anbieten würde.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)