Gerücht: Stellt nVidia die GTX200er-Serie ein?

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

7. Oktober 2009 - 11:27 — vor 14 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Laut einer Meldung der Newsseite SemiAccurate.com, stellt nVidia seine komplette HighEnd- und obere Mittelklasse im GPU-Segment ein. Betroffen sind davon offenbar ausnahmslos alle Modelle auf Basis des GT200-Chips, also die Modelle GTX260, GTX275, GTX285 und unter Umständen auch die GTX295. Für einige Modelle wie die GTX285 sollen die Boardpartner bereits EOL-Mitteilungen erhalten haben. EOL bedeutet End of Lifetime und bezeichnet damit den Produktionsstopp bei nVidia. Bis spätestens Dezember sollen dann auch alle anderen 200er GTX auslaufen.

Bislang war nur von einer Verknappung der Chipsätze zu lesen. Angeblich würden zu wenig 55nm-Chips die Fabriken verlassen um den Bedarf zu befriedigen. Allerdings war auch schon länger die Rede von zu hohen Produktionskosten der verhältnismäßig großen und damit teuren GT200-Chips. ATIs überraschender Vorstoß mit den für nVidia offenbar unerwartet schnellen HD5000-Grafikserien sorgt für einen massiven Preisverfall bei allen alten Grafikkartenmodellen. Was vor wenigen Wochen noch Highend war ist jetzt bestenfalls Mittelklasse. In einer knappen Wochen werden dann auch noch die preiswerten Juniper-Modelle aka HD5750 und HD5770 zu Preisen zwischen 110 und 160 Euro auf den Markt kommen und damit die aktuelle Mittelklasse aufmischen. Der GT200 ist aber sehr teuer in der Produktion, sollte nVidia also wettbewerbsfähige Preise anbieten wollen, müsste man die GPU wahrscheinlich mit Verlust an die Boardpartner weitergeben. Denn dass Hersteller wie Palit, Asus, MSI oder XFX auf Gewinn verzichten um nVidia zu fördern ist unwahrscheinlich. SemiAccurate schreibt dazu sehr zynisch :

If AIBs, distributors and retailers have no potential for profit, they will take up a new hobby, say fishing, knitting, or selling profitable lines of GPUs.

Wenn Boardpartner, Distributoren und Händler kein Gewinnpotential mehr sehen, werden sie sich neue Hobbys suchen. Angeln oder Stricken zum Beispiel, oder vielleicht auch den Verkauf von profitablen GPU-Serien.

Sollte sich das Gerücht um die Einstellung der kompletten GTX200-Reihe bewahrheiten, bleibt nicht mehr sonderlich viel Auswahl, wenn man sich eine Grafikkarte mit nVidia-GPU kaufen möchte. Zumal das Weihnachtsgeschäft vor der Tür steht.

Jörg Langer Chefredakteur - P - 470358 - 7. Oktober 2009 - 11:27 #

Schöne News! Hoffen wir mal, dass das Gerücht nicht stimmt!

Ich finde übrigens, du müsstest nicht jeden Verweis auf SemiAccurate mit dem Zusatz "stets gut informiert" versehen...

Dennis Ziesecke 21 AAA-Gamer - 30866 - 7. Oktober 2009 - 11:35 #

Hehe, guter Hinweis. Ist mir noch gar nicht aufgefallen, ich werde darauf achten und habe den Absatz geändert.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 7. Oktober 2009 - 11:43 #

Charlie Demerjian, der Autor des Ursprungsartikels, ist übrigens recht Pro-ATI eingestellt. Man sollte sich also bei der einen oder anderen Übertreibung nicht wundern. Allerdings ist der Hintergrund, nämlich die viel zu hohen Produktionskosten, recht real. Und aus finanzieller Sicht ergibt die 200er-Serie nach dem Start der HD5000er keinen Sinn mehr. Und mit Fermi geht nVidia exakt den gleichen Weg - große und schwer ins Mittelklassesegment abzuspeckende Monsterchips. Bin gespannt, wie sich das entwickelt.

mik 13 Koop-Gamer - 1350 - 7. Oktober 2009 - 23:50 #

Ob die Fermi Chips wirklich so leicht abzuspecken sind, kannst du doch noch garnicht wissen, warten wir mal ab.

Ich persoenlich glaube das nVidia's neue GraKa's Anfang naechsten Jahres kommen und alles wie gewohnt weiter geht.

PS: Ich hoffe nur das ATi jetzt nur nicht an der Preisschraube dreht und die Preise hochtreibt bzw. die technische Entwicklung schleifen laesst!

Dennis Ziesecke 21 AAA-Gamer - 30866 - 7. Oktober 2009 - 23:53 #

Wenn ich mir die von der heutigen AMD-Vorstellung durchgesickerten Folien zur HD5770/5750 so anschaue, wirds bei ATI eher preiswerter als erwartet.

thomas95 07 Dual-Talent - 128 - 7. Oktober 2009 - 13:45 #

Das ist schwachsinn!

Dennis Ziesecke 21 AAA-Gamer - 30866 - 7. Oktober 2009 - 13:55 #

Was denn, das Gerücht, Charlie, der Weltfrieden?

Zum Gerücht: rein rechnerisch ergibt das durchaus Sinn. Mag der gemeine nVidia-Fanboy vielleicht nicht gerne hören: aber die GT200 sind viel viel zu teuer in der Produktion und es gibt kein Einsparpotential. nVidia MUSS sich also entscheiden, ob sie fleißig Verlust fahren, dabei aber ihre Kunden ruhig halten - oder ob sie keinen Verlust machen wollen, auf Umsatz verzichten und wartende bzw. erboste Kunden in Kauf nehmen.

BolleY2K 08 Versteher - 221 - 7. Oktober 2009 - 14:13 #

Sinn macht das schon - wäre aber psychologisch verheerend für NVidia mMn. Ich bin gespannt!

Wenn die I5 von Intel noch im Preis fallen, bekommt AMD mit seinen Phenom II aber ähnliche Probleme...

Dennis Ziesecke 21 AAA-Gamer - 30866 - 7. Oktober 2009 - 14:22 #

Nur dass der Phenom offenbar auch halbwegs preiswert herzustellen ist. Bei Grafikkarten kommt ja auch immer noch so gedöns wie Board, Spannungswandler, Spulen, Anschlüsse, Lüfter, etc. hinzu, das kostet im Endeffekt den Boardpartner recht viel Kohle. Und dass bei einigen Bauteilen schon gespart wurde, sieht man durchaus am Spulenfiepen der GTX200er.

Aber wie schon gesagt, Charlie ist nVidia gegenüber nicht unbedingt.. nun.. neutral? eingestellt. AMD/ATI-kritische Nachrichten vermisst man auf SemiAccurate irgendwie.

Trotzdem, es könnte ein Funken Wahrheit im Gerücht stecken, wie es oft so ist. Lassen wir uns überraschen.

Spiritogre 19 Megatalent - 13401 - 7. Oktober 2009 - 14:48 #

Es ist logisch, dass die Produktion eingestellt wird. Das ist doch völlig normal. Die neue Generation steht in den Startlöchern. Die letzten Chips werden noch an die Hersteller abverkauft, die bauen noch ein paar Karten, die dann in den kommenden Jahren als Einsteigerlösungen verramscht werden und konzentrieren sich ansonsten auf die aktuelle Generation. Ehrlich gesagt verwundert es mich, dass die 200er Chips genau wie bei ATI die 4000er überhaupt noch hergestellt werden.

2good 10 Kommunikator - 380 - 7. Oktober 2009 - 15:36 #

Ich hoff mal das Nvidia ihre Chips bis zum Weihnachtsgeschäft auf den Markt bringen kann. Sonst könnte das ein teueres Fest werden für die Konsumenten.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 7. Oktober 2009 - 15:48 #

Och, ich glaube nicht, dass ATI die Preise massiv erhöhen könnte. Und 120 Euro für eine HD5750, 150 Euro für die HD5770 sowie unter 200 Euro für eine HD5850 und noch knapp 300 Euro für die HD5870 sind fair für die gebotene Leistung.

BolleY2K 08 Versteher - 221 - 7. Oktober 2009 - 17:15 #

Wenn man etwas weiterdenkt könnte das aber auch bedeuten, dass im Mittel- und Günstigpreissegment demnächst die 876. Iteration des G92 von NVidia auf den Markt geschmissen wird. Da hatte ich eigentlich die Hoffnung, dass dort abgespeckte GT200 Derivate zum Einsatz kommen - ich befürchte aber fast, dass uns ein weiterer G92 beehren wird...

Dennis Ziesecke 21 AAA-Gamer - 30866 - 7. Oktober 2009 - 17:24 #

Die entsprechenden Derivate, leicht überarbeitet für 40nm und mit DX10.1, gibt es ja für die Einsteigerklasse schon in Form der G210 und G220.

CH64 14 Komm-Experte - 1885 - 7. Oktober 2009 - 21:17 #

Super, wenn die so weiter machen gibt es bald nur noch ATI-Karten. Das wird teuer.

cromsche (unregistriert) 7. Oktober 2009 - 23:44 #

Also ich wuerde mir da keine grossen Gedanken machen. EOL bedeutet ja nicht "out of sight" sondern es werden keine Bestellungen mehr angenommen. Also schon bestellte Chips werden produziert und ausgeliefert und das Lager wird geraeumt.
Ich finde es sogar praktisch. Keine gt200 mehr sondern nur gt300.
Des weiteren sind die ATI Karten so guenstig im Verhaeltnis zur Leistung. Da kann von teuer auch keine Rede sein.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 0:05 #

Andererseits - was bringt nVidia als neue Mittelklasse? Fermi wird in drei Chips aufgeteilt, das deckt die HighEnd- und Performanceklasse ab. "unten" warten dann noch ein paar G92-Derivate für den Einsteigerbereich. Und dazwischen? Momentan: gähnende Leere.

BolleY2K 08 Versteher - 221 - 8. Oktober 2009 - 1:59 #

Genau darauf zielte ich ab mit meinem letzten Kommentar...

LePatron 12 Trollwächter - 1116 - 8. Oktober 2009 - 8:29 #

Moin zusammen!

Ich könnte schwören, das diese News gestern auch auf den Seiten von Gamestar und PC-Games zu lesen war!
Bei Gamestar war sinngemäß noch zu lesen, das die Einstellung des GT200 eventuell das Ende von Nvidia bedeuten könnte!
Nun, als ich mir heute Morgen die Kommentare anschauen wollte musste ich feststellen, das die News auf beiden Seiten scheinbar gelöscht wurden!
Gab´s da von Seiten Nvidia was auf den Deckel?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 10:21 #

Ich habe schon versucht, klarzustellen, dass es sich bei Charlies Text auf SemiAccurate nur um ein Gerücht handelt und habe den dort orakelten Untergang von nVidia lieber aussen vor gelassen (wobei die Jungs wirklich gerade auf allen Ebenen schwächeln. Das Chipsatzgeschäft geben sie jetzt auch noch auf..). Ich hatte auch das Gefühl, bei anderen Seiten wurde die News eher nicht als Gerücht verbreitet sondern eher als Tatsache beschrieben. Vielleicht gabs tatsächlich einen auf den Deckel, keine Ahnung.

Umschwung in Sicht (unregistriert) 8. Oktober 2009 - 11:15 #

Mag sein, dass Semiaccurate ein wenig übertreibt und zudem etwas tendenziös schreibt. Da meines Wissens 50% der Graka-Umsätze in Q4 gemacht werden, nutzen die Hersteller die Gelegenheit, die Lager zu räumen. Aber da sind so viele Indizien, dass es bei Nvidia nicht recht läuft. Man sehe nur die Produktpage zu 210 und 220 bei Nvidia! Das sind die einzigen 40nm Produkte, die Nvidia noch vor Weihnachten liefern kann und die haben nur DX10.1! Mehr noch, die 210 ist eine absolute Billigkarte (ca. 30$?) und nur für OEMs. Die 220 ist auch nicht viel besser, vielleicht gerade mal ein Konkurrent für ATI 4770 in der Klasse unter 100$. Aber reicht das? Wie kann Nvidia es nur wagen, auf der PK kaum ein Wort über DX11 zu verlieren? Die Kids warten drauf und sie machen immer noch den grössten Umsatz! Und dann hat Semiaccurate auch Recht mit einigen Fakten. Nvidia verschlief wichtige Innovationen als da wären Tesselator, GDDR5 und vor allem 40nm! Nein, da scheint schon was dahinter zu sein und wenn Nvidia nicht schnell was auf den Markt wirft, dann kann es deutlich runtergehen mit denen. Nur, allein die Produktion eines Chips dauert rund 12 Wochen. Da kann sich jeder ausrechnen, was passiert, wenn die nächste Revision nicht richtig läuft, von den Treibern mal ganz abgesehen ...

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 11:20 #

Die G220 ist sogar deutlich schlechter, als du denkst. In der Leistung steht sie eher auf dem Niveau einer Geforce8600GT, welche schon zum Erscheinen eher schwachbrüstig daherkam. Sogar die für aktuelle Spiele kaum geeignete 9600GT ist in vielen Punkten der G220 überlegen - 48 SP zu 64 SP, 128 Bit Speicherinterface im Vergleich zu 256 Bit (ok, OEM-9600er nutzen oft auch nur 128 Bit), etc..

Ein rundes Angebot schaut anders aus. Wie oft soll der G92 noch als Retter erscheinen? Wird aus der 9800GTX+ jetzt nach GTS150 und GTS250 auch noch GTS350?

Umschwung in Sicht II (unregistriert) 8. Oktober 2009 - 11:32 #

Möchte etwas ergänzen, da es ja ohnehin vor Gerüchten nur so rauscht: Mal heisst es, Nvidia könne noch im Dezember CHIPS liefern - aber wie viele und was ist mit den KARTEN? Auf jeden Fall sieht es nicht nach nennenswerten Lieferungen aus. Zudem muss man Charlie von Semiaccurate ja eines lassen: Er hat die Krise bei Nvidia bereits im Mai vorausgesagt als noch keiner davon etwas wissen wollte. Nun fragen die Leute überall ob nicht doch was dran ist. Man denke nur an S3. Vor Jahren gehörten die zu den Marktführern, bis sie die 3D-Technologie verschliefen und den Rückstand nicht mehr aufholen konnten, ähnlich wie Number 9, Cirrus Logic, Matrox, Trident, XGI und viele andere. Ich denke, wenn Nvidia in der Oberklasse von ATI und unten von Intel in die Mangel genommen wird und auch keine Chipsätze mehr produzieren kann, dann geht es ab nach unten. Oder?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 11:49 #

Auch wenn durch die 3dfx-Episode (nvidia hat die Jungs damals quasi in die Pleite geklagt) noch etwas stinkig auf nVidia bin, ich würde es ihnen nicht wünschen. Ein wenig finanzielle Reserven sollten ja vorhanden sein, im Gegensatz zu AMD haben die Leute bei nVidia ja zwischendurch sogar Geld verdient ;) . So eine böse Intel/ATI-Monokultur tut nicht gut und nVidia würde auf dem Markt fehlen.

Umschwung in Sicht III (unregistriert) 8. Oktober 2009 - 12:03 #

Da hast du auf jeden Fall recht, was den Wettbewerb angeht. Allerdings hat sich Nvidia zeitweise selbst wie ein Monopolist aufgeführt, grosse Reden geführt und heute sieht man, dass da nicht viel dahinter ist. Vor einem Jahr hätten sie das CPU-Business von VIA kaufen können, doch dann haben sie VIA für den ION auf der Atom-Plattform fallen gelassen. Heute sieht das recht kurzsichtig aus, denn mit einer einigen CPU, und sei sie noch so schwach, hätte Nvidia eine Perspektive gehabt: Erst Netbooks, dann Notebooks und dann vielleicht DT und X86-Server mit CUDA? Heute sieht mir das alles nur noch nach Scherbenhaufen aus.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 12:13 #

Tja, dann muss der CEO noch ein paar Jahre für den berühmten symbolischen Dollar im Jahr arbeiten ;) .. Ich denke aber nicht, dass nVidia so schnell komplett pleite gehen wird. Spannend wird es aber auf jeden Fall bleiben. Ich bin auch sehr interessiert, wie nVidia ihr "Mittelklasse-GPU-Dilemma" lösen möchte.

Aber hey, wo wir schon so nett am Fachsimpeln sind - da kannst du dich auch eigentlich hier registrieren, dann erkennt man sich wenigstens wieder ;) .

melone 06 Bewerter - 1512 - 8. Oktober 2009 - 20:48 #

Fänd ich gut!

rhin_tin 08 Versteher - 217 - 8. Oktober 2009 - 14:07 #

NVIDIA Hat dieses Gerücht dementiert: http://ht4u.net/news/21026_geruechte_und_wahrheiten_%E2%80%93_nvidia_gesteht_lieferengpaesse/

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 14:16 #

Auch laut heise.de .. Aber ganz ehrlich - ich würde das auch dementieren, selbst wenns stimmt ;) ..

Earl iGrey 16 Übertalent - 5093 - 8. Oktober 2009 - 23:36 #

Ich bevorzuge zwar ATI-Produkte, wünsche einer so innovativen Firma wie nVidia auch nichts Schlechtes. :o