nVidia präsentiert neuen Grafikchip

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

1. Oktober 2009 - 11:37
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Offenbar unter Zugzwang geraten, präsentierte nVidia jetzt neue Grafikchips mit dem Codenamen "Fermi". Der Vorgänger GT200, welcher auf aktuellen Grafikkarten wie der Geforce GTX275 oder GTX285 zum Einsatz kommt, wurde intern "Tesla" genannt, man bleibt also bei berühmten Physikern. Bei der Vorstellung des neuen Chips handelt es sich allerdings um eine reine Technologievorschau. Bis es fertige Karten zu kaufen gibt, werden noch einige Monate vergehen. Gerüchte sprechen von einer großflächigen Einführung nicht vor Februar 2010. Nimmt man das sehr späte Tape-Out im Juli als Basis, könnte dieser Termin hinkommen. Nichtsdestotrotz möchte nVidia geringe Stückzahlen schon im Dezember auf dem Markt gebracht haben. 

Die technischen Daten des neuen Grafikchips sind beeindruckend. 512 Shadereinheiten im Vergleich zu 240 Einheiten beim GT200, welche dazu noch in der Effizienz verbessert worden sein sollen, sorgen für viel Shaderleistung. Chip- und Speichertakt sind noch nicht bekannt gegeben worden. Allerdings setzt man bei nVidia nicht mehr auf ein 512 Bit breites Speicherinterface, sondern reduziert dieses auf 384 Bit. Um trotzdem mehr Leistung im Vergleich zu den Vorgängern herauszuholen, wird anstatt GDDR3 das gut doppelt so schnelle GDDR5-RAM verbaut. Effektiv bleiben also auch ohne Takterhöhungen gute 20-30% zusätzliche Speicherleistung. Der Chip wird bei wie ATIs neue Grafikkartenserie im 40nm-Verfahren bei TSMC produziert, besteht aber aus über 3 Milliarden Transistoren (HD5870 : 2,15 Milliarden). Bis zu 6GB GDDR5-RAM können angesprochen werden, auch Modelle mit 1,5 GB und 3 GB sind im Gespräch. Natürlich fehlt auch die Unterstützung für DX11 nicht, ebenso wird OpenCL, OpenGL3.1 und eine neue Version von Cuda implementiert.

Der GF- (Geforce Fermi, GT bedeutete Geforce Tesla) Chip ist im Gegensatz zu seinen Vorgängern komplett neu entwickelt worden. Basierte auch der GT200 noch größtenteils auf dem älteren G80-Chipsatz, wurde nun ein radikaler Schnitt gewagt. Ob die Änderungen allerdings so positiv für uns Spieler sind, muss bezweifelt werden. Die Fermi-Chips sind intern eher wie eine Mischung aus GPU und CPU aufgebaut, inklusive L1- und L2-Cache und Support für fehlerkorrigierendes und sonst nur im Serverbereich zu findendes ECC-RAM. 

Da die Vorstellung im Rahmen von nVidias GPGPU-Messe "GPU Tech-Conference" erfolgte, konzentriert sich die Vorstellung hauptsächlich auf technische Details, die für den reinen Computerspieler eher uninteressant sind. Allerdings spricht einiges dafür, dass nVidia mit dem neuen Chip auch tatsächlich primär den professionellen Markt und weniger die Spieler im Auge hat. DX11 zum Beispiel wird in der Präsentation nicht erwähnt und es bleibt auch zu befürchten, dass "Fermi" keine fest verdrahteten und damit schnellen DX11-Einheiten zum Beispiel für Tesselation enthalten wird. Die Berechnungen sollen offenbar komplett über Shader programmiert werden, was sich negativ auf die Leistung auswirken sollte. Auch sind viele Funktionen des neuen Chips in Spielen eher hinderlich. Wenn nVidia von bis zu 400% Mehrleistung bei GPGPU-Anwendungen spricht, bedeutet das eben leider nicht, dass auch Spiele entsprechend beschleunigt werden. Offenbar sieht nVidia das neue Chipdesign eher als Konkurrenz für Intels Larrabee und weniger als Gamingchip wie ATIs HD5870. Im professionellen Umfeld sind auch deutlich höhere Gewinnspannen zu erzielen, als im umkämpften und an Umfang verlierenden Gamingsegment.

Wahrscheinlich wird die Serie getrennt und für Spieler noch ein kleinerer und preiswerter zu produzierender Chip auf Basis des Fermi entwickelt. Sonderlich preiswert dürfte dieser neue Monsterchip nämlich in der Herstellung nicht sein.

Tchibo 13 Koop-Gamer - 1450 - 1. Oktober 2009 - 11:16 #

Ich hab grad die News im Feedreader gelesen..
war ja klar, das du da scho die News aufgesetzt hast.

*Thump UP*

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 11:21 #

Ich wollte das schon viel früher zur News verarbeiten. Dummerweise wirkt die Paracetamol erst jetzt ;) ..

Tchibo 13 Koop-Gamer - 1450 - 1. Oktober 2009 - 11:48 #

Heile Heile Segen.
7 Tage Regen
7 Tage Sonnenschein
wird bald wieder heile sein.

So .. Portion Mitleid wurde verteilt!
Komm wieder auf die Beine mi Jung

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 12:03 #

Hey, ich bin ein Mann, Mitleid ist die einzige Medizin! ;)

SynTetic (unregistriert) 1. Oktober 2009 - 11:34 #

Ich freue mich auf NVidias neue Chips, nicht nur der neuen Leistung wegen. Vor allem muss Konkurrenz zu AMD her, denn das kann sich für uns Spieler nur positiv auf die Preise auswirken.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 11:39 #

Ich habe ein wenig Angst. nVidia scheint den Gamermarkt nicht mehr für profitabel zu halten. Anders lassen sich dauer-umbenannte Grafikchips und ein GPGPU-Monster wie Fermi nicht erklären. Geld lässt sich bei Gamern mit so einer Karte nicht verdienen! Dazu kommt, dass DX11 nur indirekt und halbherzig implementiert wurde, viele Verbesserungen bei Spielen eher für Geschwindigkeitsverlust als für mehr Speed sorgen und und und. Fermi ist fast mehr CPU als GPU, Raytracing wäre damit sicher toll zu machen. Aber aktuelle Gamers? Ich befürchte ja fast, eine GTX295 wird nicht so viel langsamer sein, als ein Fermi-Monster - aber preiswerter. Und ich befürchte weiterhin, dass nVidia eventuell die GT200 als GT300 neu auf den Markt bringt und die neuen Chips nur halbherzig als Topmodell auf den Markt schmeisst. DX10 für die Massen, DX11 fürs Luxusgör.

SynTetic (unregistriert) 1. Oktober 2009 - 14:06 #

Bislang habe ich mit nVidia-Karten - was die Geschwindigkeit angeht - durchweg nur die besten Erfahrungen gemacht. Klar, die Top-Modelle sind teuer, aber meine damalige 8800 GTX hat auf sehr lange Zeit die Leistungskrone behalten und mit meiner jetzigen GTX 285 bin ich auch sehr zufrieden. Die Treiberunterstützung gefällt mir ebenfalls.

Ideal wäre halt ein Konkurrenzverhältnis auf Mittelklasse-Ebene mit AMD. Trotzdem wird nVidia bestimmt nicht das Top-Segment vernachlässigen: Da sind zwar weniger potentielle Kunden, aber auch dort wird Umsatz gemacht.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 14:10 #

Ich befürchte, nVidia wird mit Fermi ausschließlich das Topsegment bedienen können. Ohne ein generelles Redesign wirds da sehr schwer, eine Mittelklasse draus zu basteln. Ich befürchte, die Mittelklasse wird tatsächlich nur DX10.1 nutzen können und aus den teilweise schon vorgestellen 40nm-Modellen auf Basis der Vorgängerchips bestehen. Und wenn dann noch "GT310" oder "GT320" drauf steht, bevorzugt mit "2 GB ultraschnellem GDDR2-RAM!", werden viele Unwissende zuschlagen und sich wundern, wo die Leistung bleibt.

melone 06 Bewerter - 1512 - 1. Oktober 2009 - 14:14 #

Das halt ich für unbegründet.

Mal im Ernst, nVIDIA hat hier schon was Cooles gezaubert, sofern es denn dann mal als reale Hardware existiert und zu vernünftigen Preisen erhältlich sein wird.

Eine Trennung wie Du sie Dir vielleicht denkst wird es in Zukunft nicht mehr geben, da alles weiter generalisiert wird. Das was dann zählt ist reine Performance; wozu Du diese dann einsetzt ist Dir überlassen.

Das ist ein wichtiger und auch ein guter Schritt, da ansonsten eine Menge Transistoren nur Däumchen drehen würden und es theoretisch auch abwechslunsgreicheren Grafikegines in die Hände spielt. Am besten eine furzschnelle Hardware, auf der jeder dann seine Idee einer Engine implementieren kann: Die Freiheit von Softwareengines hardwarebeschleunigt umgesetzt.

Zusätzlich darf man aber auch nicht vergessen, wohin sich der Markt hinetwickeln könnte. Wenn in Zukunft Videospiele mehr und mehr per Stream vertrieben werden, dann fallen auch eine Menge potentieller Käufer weg.

Ich find's prima, wenn ich meine Videos in Zukunft in einen Bruchteil der heutigen benötigte Zeit, vielleicht sogar on-the-fly kodieren kann!

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 14:15 #

Was meinst du denn, wie weit nVidia den Preis für einen 500mm²-Chip senken können wird? Oder kommt die bezahlbare Mittelklasse erst nach einem Shrink auf 32nm? Große Teile des Transistorbudgets geht für Caches im Chip drauf. Die kann man leider nicht ohne weiteres weglassen. Die Integereinheit arbeitet jetzt mit 32 Bit statt 24 Bit, was durchgehend bei älteren, nicht neu kompilierten Titeln Leistung kosten wird - schlecht für eine leistungsbegrenzte Mittelklasse. Ähnliches hat man ja schon bei der Geforce5800 gesehen.

melone 06 Bewerter - 1512 - 1. Oktober 2009 - 14:30 #

Ich denke sie werden das Die verkleinern, indem sie den Umfang und die Anzahl einzelner Funktionseinheiten beschränken werden. Desweiteren wie üblich: Die übleren Chips werden niedriger getaktet und dafür günstiger auch den Markt gebracht. Beim Design einer neuen Generation würde ich primär auch nicht auf die alten Titel schielen, meist bringen sie ein Mehr an Performance mit, um's zu kompensieren.

When juckt's schon, ob ich ein altes Spiel mit 100 oder 110 Frames spielen kann? Lieber hab ich eine Hardware, die der neuen Technologie in die Hände spielt. Aber das ist je nach User unterschiedlich und drum gibt es ja auch immer gewisse Übergangszeiten.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 14:31 #

Wir wissen alle, wie lieblos aktuell PC-Umsetzungen gemacht werden. Ich befürchte, einige der Einschränkungen werden auch für aktuellere Spiele gelten. Und mit "alt" ist ja auch sowas wie Crysis gemeint, was trotz allem nach Power lechzt.

Klar werden sie Funktionseinheiten beschneiden. Weniger Shaderprozessoren, geringerer Cache, weniger Takt. Aber dennoch wird das Ding ein Monsterchip bleiben. Die GT200 ließen sich ja schon nicht vernünftig herunterskalieren, das ist mit den neuen Chips nicht leichter geworden.

melone 06 Bewerter - 1512 - 1. Oktober 2009 - 14:42 #

Ich würde das mit dem lieblos nicht für alle Spiele unterschreiben.

a) Stimmt dies nicht für alle Spiele. Es gibt auch genügend Spiele, die sind eher für die Konsole mittlerprächtig implementiert. Aus aktuellem Anlaß denke ich da z.B. an TOMI, das auf der Wii ein Graus ist oder auch W&G, das auf der Xbox360 seine Probleme hat.

b) Wie gesagt, wen juckt's schon, ob ich Crysis mit allem Pipapo spielen kann? Dann schalte ich halt was ab und es läuft immer noch irgendwie gut. Da sind mir die 90% an Mehrfunktionalität in anderen Bereichen in denen ich eine Grafikkarte nutzen möchte weitaus lieber.

c) Ist das auch ein Problem der Middleware, und gute Middleware skaliert ordentlich auf diverse Plattformen wie auch Grafikchips.

Marco Büttinghausen 20 Gold-Gamer - 20481 - 1. Oktober 2009 - 15:01 #

Monsterchip bedeutet ja auch Monsterkosten bei der Produktion, halte das also nicht für unwahrscheinlich, das Problem hat Nvidia ja aktuell auch schon, das sie für das Low-Medim Segment aus der aktuellen Generation nichts anbieten können weil die Chips zu teuer sind.

melone 06 Bewerter - 1512 - 1. Oktober 2009 - 11:52 #

Revolution! *hüstel* Klar, hatte nVIDIA neu zu designen; sie hatten im Vergleich zu ATI auch etwas aufzuholen. Daß die technischen Belange für Spieler uninteressant sind, halt ich so für nicht ganz richtig, da diese Verbesserungen bei der Physik sowie anderen im Hintergrund werkelnden Prozessen, die in Zukunft noch stärker beansprucht werden, sehr wohl zum Tragen kommen. Bin mal gespannt wie sich die Produktionskosten und Ausschussquote der Chips entwickeln. Compute Shaders here we come!

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 11:59 #

Hey, es hat nie jemand behauptet, dass Revolutionen immer wirklich gut sein müssen. Schon Tropico gespielt? ;)

melone 06 Bewerter - 1512 - 1. Oktober 2009 - 12:04 #

Jaja, wir verstehen uns hier schon! ;O)

Nein, Tropico hat mir nie so gefallen, aber gab's nicht mal so ein Spiel auf dem C64, daß Imperium oder so hieß? Egal, ich schlag mich lieber mit den vermeintlichen Revolutionen auf gfx hardware rum, macht mehr Spaß.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 12:23 #

Lustig übrigens, die von nVidias Vorsitzendem stolz gezeigte Karte scheint auch nur ein funktionsloses Sample zu sein. Jedenfalls passen da einige der Anschlüsse auf der Rückseite nicht zu den Frontansichten. Stichwort: Stromversorgung.

Marco Büttinghausen 20 Gold-Gamer - 20481 - 1. Oktober 2009 - 12:45 #

Danke für die News Dod, die Eckdaten klingen ja nett, vorallem 6GB auf der Karte wäre klasse, aber wenn du so schreibst das Nvidia nicht mehr primär den Gamer im Auge hat, mache ich mir da auch Sorgen

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 12:59 #

Viele Punkte sprechen eher für eine Verlagerung ins Profigeschäft. Sicherlich wird als "Abfallprodukt" auch die eine oder andere Gamerkarte herauskommen, 3 Mrd. Transistoren wären da aber overkill und nicht finanzierbar denke ich. Da für Profihardware gerne mal fünfstellige Summen bezahlt werden, geht der Trend bei nVidia wohl in diese Richtung. Die 6 GB VRAM wird man sicher auch nicht auf einer Spielerkarte finden.

Stefan1904 30 Pro-Gamer - 128595 - 1. Oktober 2009 - 15:44 #

Wenn man sich die Entwicklung bei Nvidia anschaut, kann man schon absehen, dass die nächste Konsolengeneration nicht mit Nvidia Grafikchips ausgestattet sein wird. Da hat ATI mit seinen deutlich kostengünstigeren und gut skalierbaren Chips die Nase vorne.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Oktober 2009 - 15:56 #

Oder man verzichtet auf eine CPU und klatscht einfach zwei von den neuen Chips zusammen. In herkömmlichen Programmiersprachen sind die neuen nVidias ja schon programmierbar und kniffliger als die Arbeit mit einer PS3 kanns auch nicht sein ;) .

mik 13 Koop-Gamer - 1350 - 1. Oktober 2009 - 18:24 #

Warten wir einfach auf erste Benches, vorher kann man eh nichts sagen!

Dennis Ziesecke 21 AAA-Gamer - 30866 - 2. Oktober 2009 - 9:20 #

Tja, die könnten noch ein wenig dauern. Gestern wurde ja nicht einmal eine echte Karte präsentiert sondern nur ein Dummy (es ist sehr amüsant, sich die Nahaufnahmen der Karte anzusehen! Da sind Stromanschlüsse zu sehen aber keine Lötpunkte auf der Platinenrückseite. Die Frontblende ist sehr robust mit drei Schrauben befestigt worden und die komplette obere Lüftungsschlitzreihe ist unwirksam, da vom Kühlermaterial verdeckt. Offenbar wurde die Platine einer GTX295 zurechtgesägt (!) und mit neuem Lüfter versehen um auf der Präsentation etwas zeigen zu können. Auch wenn es sicher gute Gründe dafür gibt: kein guter Stil und so wie es gezeigt wurde auch latent peinlich. Da hätte man ja wenigstens jemanden mit Begabung einen Dummy basteln lassen können.

http://img5.pcpop.com/ArticleImages/0x0/1/1238/001238704.jpg

Loco 17 Shapeshifter - 8999 - 3. Oktober 2009 - 12:58 #

Sry habs net gesehen das du es schon schriebst.

Loco 17 Shapeshifter - 8999 - 3. Oktober 2009 - 12:57 #

Nur ein Dummy...
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/

Dennis Ziesecke 21 AAA-Gamer - 30866 - 3. Oktober 2009 - 13:22 #

Das mit dem Dummy war schon bei den ersten Bildern gut sichtbar. Etwas peinlich. Werd da morgen im Roundup noch kurz drauf eingehen.

Mitarbeit