Gerücht : nVidia benennt erneut Grafikkarten um

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 29505 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreicht

30. August 2009 - 14:26

Der Grafikchipspezialist nVidia hat unbestreitbar ein sehr reichhaltiges Angebot an spieletauglichen Modellen auf dem Markt. Die Geforce 8800GTS mit 512 MB war ein voller Erfolg, die GTS250 ist immer noch ein Verkaufsschlager. Doch diese beiden Grafikkarten haben mehr miteinander gemeinsam, als viele potentielle Käufer glauben mögen - sie sind fast identisch. So wurde der Chip der 8800GTS nur etwas im Takt erhöht erst als GTX9800+ erneut auf den Markt geworfen und dann noch einmal, nur im Detail verändert, in GTS250 umbenannt. Dieses rebranding war offenbar ein sehr großer Erfolg, da arglose Kunden nun die langsamere GTS250 mit der auf neuer Architektur basierenden GTX260 verwechseln und auf hohe Leistung schließen.

Weiterhin ist unbestritten, dass nVidia mit der Chiparchitektur der GTX260 (GT200 genannt) ein Problem hat - die Chips sind groß und teuer in der Herstellung. Und sie eignen sich nicht dafür, preiswerte Mittelklassemodelle zu fertigen. Einer der Gründe, weshalb die einst so erfolgreiche 8800GT mittlerweile fast unverändert als 9800GT in den Regalen steht und die 8800GS zuerst in 9800GSO und dann in GT130 umbenannt wurde.

Die Gerüchteseite Semiaccurate.com will jetzt erfahren haben, dass nVidia eine ähnliche Aktion erneut plant. Jetzt sollen die Karten mit den GT200-Chips in GT300 umgewandelt werden. Allerdings will man in Erfahrung gebracht haben, dass hierfür nicht etwa die Leistung erhöht sondern, im Gegenteil, gesenkt werden soll.

So steht uns also offenbar eine neue Grafikkartengeneration bevor, die zwar einen einheitlichen Namen tragen wird, bei der aber wohl nur die Topmodelle neue Chips in sich tragen. Wenn nVidia das Spiel auf die Spitze treibt, werden nur die kommenden Karten mit dem GTX-Kürzel DirectX11 beherrschen während Versionen mit den Kürzeln GT und GS nur DX10 unterstützen und nur modifizierte Vorgängerkarten sein werden. Ein erneutes Chaos und eine offenbar sehr gewünschte Unübersichtlichkeit in den angebotenen Modellen könnte die Folge sein. Gamersglobal wird natürlich weiterhin berichten.

Floyd Ryan (unregistriert) 30. August 2009 - 10:25 #

Naja, die Zeiten in denen man von der Zahl auf die Leistung schließen konnte sind doch schon lange vorbei. Jetzt gibt's halt noch mehr Buchstabensalat dazu. Es scheint ja genug Leute zu geben, die sich alte Karten mit neuem Namen zum höheren Preis kaufen.

Vinnland 11 Forenversteher - 566 - 30. August 2009 - 10:45 #

Mir ist es eh total egal, welche Namen die Chips haben, da ich nicht blauäugig in den Laden gehe und mir irgendwas kaufe. Die Zeiten, in denen man Leistung durch die Namen erkennt, sind doch eh lange vorbei ... nicht nur bei den GraKas. Vor dem Kauf muss man sich halt Tests anschauen und nach diesen seine Auswahl treffen. Wem das zu aufwendig ist, der soll sich halt ne Konsole holen. ;)

Dennis Ziesecke Freier Redakteur - 29505 - 30. August 2009 - 12:03 #

Bei ATI ist es noch überschaubar. Erste Ziffer : Generation (z.b. "4"), zweite Ziffer : Leistungseinstufung (z.b. "8"), dritte Ziffer : weitere Leistungsunterscheidung (z.b. "3") und schon hat man die 4830 welche langsamer als eine 4850 aber schneller als eine 4650 ist. Aber alte Karten einfach neu zu benennen ohne groß an der Leistung zu schrauben ist fies. Wie würden die Konsolenfans es denn sehen, wenn jetzt eine XBox720 herauskommen würde, die langsamer als eine 360 ist aber mehr kostet?

Ganon 22 AAA-Gamer - P - 33857 - 30. August 2009 - 13:49 #

Das ist echt eine Frechheit von nVidia, so gezielt die Kunden zu verarschen. KLar kann man sich anhand von Vergleichstest informieren, aber nicht jeder kennt sich so gut aus oder sucht seine Komponenten so gezielt. Anbieter von Komplett-PCs freuen sich, können sie doch minderwertigere GraKas mit klangvollem Namen in ihre Kisten packen und beim Preis ordentlich draufschlagen.

Dennis Ziesecke Freier Redakteur - 29505 - 30. August 2009 - 14:09 #

Vor allem habe ich des öfteren Kunden, die auf einen Rechner mit GTS250 bestehen, die doofe 9800GTX+ ist ja viel zu langsam und so. Das ist denen auch nicht beizubringen. Die Verarsche funktioniert also gut, das wird auch mit der 300er-Serie nicht anders werden.

Floyd Ryan (unregistriert) 30. August 2009 - 14:21 #

Die ATI Kennzeichnung mag ja etwas logischer sein. trotzdem ist nie klar wie die Leitung zwischen den einzelnen Generationen variiert.
Vor allen werden die neuen Generationen immer als Nonplusultra angepriesen.
Nein, wer eine Grafikkarte kaufen will kommt um Benchmark-Vergleiche gar nicht herum. Die gibt es aber auch im Netz wie Sand am Meer.
Für Leute wie du sie schilderst hab ich kein Verständnis, ich meine Beharrlichkeit sollte doch etwas Kompetenz voraussetzen?

Dennis Ziesecke Freier Redakteur - 29505 - 30. August 2009 - 14:27 #

Bislang wars bei ATI einfach - die Highendkarten der alten Generation sind fast immer so schnell wie die Mittelklasse der neuen Serie. Passt. Und zumindest die großen Modelle sind im Vergleich zu den Vorgängern eigentlich immer schneller, mal davon abgesehen, dass niemand seine neuen Karten als "naja, ok aber nicht sonderlich berauschend" bewerben wird ;) . Da besteht aber noch ein Unterschied zu "wir produzieren 2007 mal ne Karte und benennen die bis 2010 ohne große Leistungssteigerung immer wieder um, damit die Leute denken, wir würden ernsthaft was neues entwickeln.

Floyd Ryan (unregistriert) 30. August 2009 - 14:40 #

Na klar. Bei nvidia ist das ganze noch viel extremer. Allein schon der ganze GT/GS/GTX/GTO/...-Wahnsinn.

melone 06 Bewerter - 1512 - 30. August 2009 - 15:38 #

Wenn's denn so kommt, dann ist's eine weitere, leider für nVIDIA typische, Verschleierungsmasche, wobei ich auch ATIs Benamung sicherlich nicht als gelungen bezeichnen würde. Wenn ein Hersteller die Bezeichnung seiner Produktpalette wirklich transparent und überschaubar halten möchte, dann geht das auch - siehe andere Industriezweige.

Bei sowas ist das Marketing und ein gewisser Prozentsatz an Fehleinkäufen absichtlich eingeplant, so sind se halt.

hoschi 13 Koop-Gamer - 1465 - 30. August 2009 - 15:48 #

auf den ersten blick sicher verwirrend (wie immer bei nvidia) aber dennoch durchschaubar, denn man informiert sich ja vor dem kauf. und wer das heutzutage im internetzeitalter nicht macht tut mir leid und hats nicht anders verdienst als verarscht zu werden.

melone 06 Bewerter - 1512 - 30. August 2009 - 16:07 #

Komische Einstellung; also ich hätte nichts dagegen und kann mir zudem auch viele Bevölkerungsgruppen vorstellen, die froh drum wären, wenn sie sich nicht erst über ein bestimmtes Thema halbschlau lesen oder sich auf eine Vertrauensperson verlassen müßten, sondern die Auswahl selbst und einfach vornehmen könnten - scheint wohl zu sehr oldskool zu sein.

hoschi 13 Koop-Gamer - 1465 - 30. August 2009 - 16:33 #

hab mich vielleicht ein bisschen zu krass ausgedrückt. ich meine ja auch gar nicht die Bevölkerungsgruppen die nicht in der Lage dazu sind und die technsich bzw eher marketingtechnisch das nicht verstehen, sondern diejenigen die es könnten und auch verstehen würden aber aus reiner Faul und Blödheit einfach nicht auf die Idee kommen vor einem neuen Graka-Kauf mal für 2 minuten google zu bedienen.

Dennis Ziesecke Freier Redakteur - 29505 - 30. August 2009 - 20:06 #

Du würdest dich wundern, wie wenige Leute sich vor dem Kauf informieren. Und es gibt dann auch noch viele Jugendliche, die von ihren Eltern einen PC geschenkt bekommen, auf dem sie gerne einmal spielen würden. Nur die Elterntiere haben halt keine Ahnung und lassen sich im Elektronikmarkt ihres Vertrauens beraten. Dummerweise sind viele Verkäufer (auch in den kleinen Fachgeschäften) schon mit recht überschaubaren Sortimenten überfordert ("mit ATI kann man nicht spielen, jedes Spiel wo dieses nvidia-Logo eingeblendet wird stürzt damit ab!" ist nur eine dieser Aussagen die ich öfter hören muss und wo sich mir die Zehennägel hochklappen). Da ist es durchaus beabsichtigt von nvidia die Übersicht weiter zu schmälern. Ich versuche meinen Kollegen im Geschäft ja auch immer einige Infos mit auf den Weg zu geben (eine Zusammenstellung davon gibts dann einmal die Woche im Newsroundup ;)), klappt aber nicht immer.

PARALAX (unregistriert) 30. August 2009 - 16:45 #

Ich bleibe ATI treu aus mehreren Gründen:

1. Sind mir schon 2x NVidia Karten einfach so abgeraucht, zuletzt eine Geforce4...okay, schon ein paar Jahre her.

2. ATI Karten sind allgemein stromsparender.

3. können die Karten mittlerweile wieder mit den NVidia-Karten mithalten, wenn es um aktuelle Spiele geht.

Ich bin nicht so der PC-Spieler. Für mich ist es wichtig, das eine Karte auch im idle Modus einigermaßen ökonomisch und vor Allem leise läuft. Sollte meine X1800XT mal irgendwann den Geist aufgeben (die nicht gerade die Leiseste ist), werde ich wohl zu Einer der HD 48xx Serie greifen.

Dennis Ziesecke Freier Redakteur - 29505 - 30. August 2009 - 18:27 #

Auch wenn ich ATI momentan ebenso den Vorzug gebe - gerade im Idle ist nVidia momentan stromsparender dabei. Die HD4xx0-Serie ist leider ohne Last recht verschwenderisch, besonders die Topmodelle mit GDDR5.

melone 06 Bewerter - 1512 - 30. August 2009 - 19:35 #

Die letzte Karte die mir durchgebrannte, war eine 9800 Pro. Der Treiber hatte die Last nicht sonderlich gut verteilt und die Shader haben dann bestimmte Bereiche zu sehr beansprucht.

Für OpenGL ist immer noch nVIDIA vorzuziehen, da deren Treiber ausgereifter sind. Unter Windows und DirectX ist's eher egal, da gibt's aus beiden Lagern akzeptable Karten; je nach Anwendungsfall ist mal der eine oder andere Hersteller vorzuziehen.

Was mir fehlt, ist die Anstrengung Karten herzustellen, die eine möglichst gute Performance mit vernünftigem Stromverbrauch kombinieren - das hat sich die letzten Jahre alles zu sehr in Richtung Wahnsinn verschoben.

Dennis Ziesecke Freier Redakteur - 29505 - 30. August 2009 - 19:52 #

Die HD4770 war da ein interessanter Beginn. Und für viele Spieler wird sicher auch die kommende Mittelklasse der neuen Generation vollkommen ausreichen. Dank Produktion in 40nm Strukturbreite erwarte ich da einige effiziente Modelle mit geringem Energiebedarf.

nVidia geht da meiner Meinung nach den falschen Weg - alte Chips umbenennen um eine neue Serie vorzugaukeln bringt halt nichts bei der Energieeffizienz.

melone 06 Bewerter - 1512 - 30. August 2009 - 20:10 #

Schau ma mal; es ist aber eben immer noch ein Unterschied, ob man eine Grafikkarte für einen bestimmten Zweck hin konstruiert und optimiert oder einfach den Takt, Anzahl der Shader, etc. reduziert.

Wie war das damals?! Man mußte GeForce4MX Besitzern ewig erklären, warum bestimmte Spiele nicht auf ihrer "neuen" Karte liefen, während Menschen die noch eine GeForce3 in ihrem Rechner hatten, die Spiele genießen konnten.

Im Gegensatz zur IE-Farce, wäre dies ein sinvolles Betätigungsfeld für die EU, im Sinne des Verbraucherschutzes, gewesen.

Dennis Ziesecke Freier Redakteur - 29505 - 30. August 2009 - 21:11 #

Naja, generell bringt die Produktion in 40nm schon Vorteile, wie man bei der 4770 sieht. Wenn jetzt die Mittelklasse wie üblich mit knapp der Hälfte an Shadereinheiten daherkommt und auf GDDR5 verzichtet sollte ungefähr die Leistung einer 4850 mit recht geringen Energiebedürfnissen rauskommen. Wäre doch schon ausreichend. Wenn ATI jetzt noch endlich ein paar begabte Treiberprogrammierer einstellen würde, könnte man mittels PowerPlay auch richtig nette Stromsparfunktionen realisieren ;) .

melone 06 Bewerter - 1512 - 31. August 2009 - 10:10 #

Natürlch bringt das was, aber halt weniger wie wenn Du genau zu diesem Zweck eine Technologie entwirfst. Was gibt heute ein PCIe Slot her? Wenn ich mich recht entsinne, dann sind das maximal 75Watt.

Also eine Grafikkarte die maximal 70 Watt (wobei das auch schon ne Menge ist, besser weniger) benötigt und dabei das technologisch Machbare herausholt wäre z.B. prima, oder zumindest mehr mobile Technologie im Desktopbereich und dazu am besten noch eine passive Kühllösung.

Ich fand damals schon die CPU Entwicklung leicht merkwürdig, als x86 dem 68k Design entlief, schon da zeichneten sich die ersten Anzeichen heutiger zum Teil monströser Kühhlösungen ab - eine CPU mit einem 1kg Kühlturm ist in meinen Augen nun mal kein richiger Fotschritt.

SUB ZER0 10 Kommunikator - 449 - 31. August 2009 - 8:27 #

Auf Konsolen gibts so Probleme zum Glück nicht. Hoffentlich hält meine GraKa noch etwas.

Tchibo 13 Koop-Gamer - 1448 - 31. August 2009 - 8:42 #

Tja.. und dann gabs noch das Problem das es 2 verschiedene 8800GTX gab.
Eine hatte diese H.264 Hardwareunterstützung in Version 1 und die andere schon in Version 2.
Unterscheidungsmerkmal?
Die mit weniger Speicher war die bessere... !?!!?!?!?!

maddccat 18 Doppel-Voter - P - 11223 - 1. September 2009 - 4:06 #

Schade, dass mangelnde Transparenz im Grafikkartengeschäft wohl nicht durch Umsatzrückgang abgestraft wird! Nicht jeder hat Zeit, Vorwissen oder Lust sich in die Materie einzuarbeiten bevor er sich einen neuen Rechner zulegt.

Punisher 19 Megatalent - P - 14045 - 2. September 2009 - 19:37 #

Bei einer anderen News schrieb jemand in den Kommentaren, die Hersteller hätten mit ihrer seltsamen Produktpolitik und überhöhten Preisen die Käufer zu den Konsolen getrieben... imho hat er damit recht. Irgendwann in grauer Vorzeit konnte man Leistungen etc. noch recht einfach vergleichen, aber irgendwann gings los, dass "next gen"-Karten auf einmal nur noch umgelabelte Alte Karten mit anderem Takt waren, schnellere Karten auf einmal kleinere Nummern trugen als alte, langsamere und so weiter. Dann zwischendrin noch dieser SLI-Flop... ehrlich, ich hab da auch absolut keinen Bock mehr drauf. Paar Benchmarks anschauen, wenn eine neuer PC her soll, und die beste Karte um die 100 Euro kaufen - oder einfach den Standard nehmen, den Dell verbaut. Gezockt wird ja eh nimmer am PC.

Eigentlich schade, dass die technisch schönste Plattform irgendwie derzeit von allen Seiten demontiert wird.

Dennis Ziesecke Freier Redakteur - 29505 - 2. September 2009 - 19:42 #

Meiner Meinung nach hätte dann nVidia die Nutzer zu den Konsolen getrieben (ok, mit der PS3 verdient nVidia sich dumm und dämlich mit einem uralten Grafikchip ohne wirkliche Leistung). ATI hatte zwar mit den 2000er-Karten sehr schwache Modelle auf dem Markt und mit den 3000ern auch keine absoluten Knüller - aber die Namensgebung war immer transparent und die Preisgestaltung fair.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit