nVidia: Neue Grafikkartendetails enthüllt (inkl. Video)

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 29622 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Dieser User unterstützt GG mit einem Abonnement oder nutzt Freimonate via GG-Gulden.Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreicht

19. Januar 2010 - 21:08

Nachdem die letzten Monate eher ruhig blieben, was neue Informationen zu nVidias neuen Grafikkarten mit DX11-Unterstützung anging, wurden jetzt neue Informationen bekannt gegeben. Bisher murmelte die Gerüchteküche immer lauter unbestätigte Daten vor sich hin, Mitbewerber ATI indes freute sich über satte Umsätze mit den HD5000-Karten. Jetzt verkündete nVidia zumindest einen Teil der finalen technischen Daten des GF100-Topmodells.

Hersteller/Modell nVidia "GTX380" nVidia GTX285 ATI HD 5870
Chip GF100 GT200b Cypress
Fertigung (nm) 40 55 40
Transistoren (Mio.) ca. 3000 1400 2150
DX-Version 11 10 11
Shadereinheiten 512 (1D) 240 (1D) 1600 (5D)
TMUs 64 80 80
ROPs 48 32 32
Speicherbus (Bit) 384 512 256
Speichertyp GDDR5 GDDR3 GDDR5
ca. Preis unbekannt ab 270 Euro ab 330 Euro

Bei den Shadereinheiten ist zu beachten, dass der interne Aufbau sich bei ATI und nVidia massiv unterscheidet und nVidias Einheiten trotz geringerer Menge eine höhere Leistung erzielen. Interessant ist das "krumme" Speicherinterface mit 384 Bit, aus welchem Speicherbestückungen von anfangs 1536 MiB resultieren. Modelle mit 3 GiB und sogar 6 GiB sind technisch realisierbar. Durch die Nutzung moderner GDDR5-RAMs liegt die Speicherbandbreite der kommenden Modelle deutlich über der Bandbreite der Vorgängerserie obwohl das Interface an sich geschrumpft ist.

Kleinere Modelle mit weniger Ausführungseinheiten und kleinerem Speicherinterface sind denkbar, leider schweigt sich nVidia weiterhin zur finalen Namensgebung aus. GTX380 für das Topmodell und GTX360 für die Performance-Version wären allerdings denkbar und würden das aktuelle Namensschema fortführen. Auch unklar ist der Preis der Karten, allerdings dürfte dieser zumindest bei der GTX380 kaum unter 400-500 Euro angesiedelt sein.

Unabhängige Benchmarkergebnisse liegen leider noch nicht vor, die von nVidia zur Präsentation gewählten Szenarien dürften sehr bewusst ausgewählt worden sein. Dennoch steht eine massive Leistungssteigerung im Vergleich zur Vorgängergeneration und auch zu ATIs aktueller Serie zu erwarten. Entgegen erster Befürchtungen kann der GF100 auch auf vollwertige Tesselationeinheiten zurückgreifen, weiterhin soll die Leistungsfähigkeit der Textureinheiten (TMUs) stark verbessert worden sein. Die geringere Anzahl an TMUs soll durch diese Verbesserungen wieder ausgeglichen werden und den Energiebedarf des Chips zügeln. Die Performance im Bereich GPGPU wird sich aufgrund vieler interner Änderungen auf jeden Fall stark erhöhen, sowohl im Vergleich zu ATIs 5000ern als auch gegenüber der Vorgängerserie von nVidia. Für die Stromversorgung sieht nVidia einen 6-Pin-PCIe-Stecker sowie einen 8-Pin-Anschluss vor, was auf eine Leistungsaufnahme zwischen 225 und 300 Watt hinweist. 

Alles in allem schaut das jetzt veröffentlichte Material sehr gut aus, um zu geringe Leistung wird man sich keine Sorgen machen müssen. Finale Taktraten sowie genauere Details zu Preis, Lautstärke, Kühlsystem sowie Energieaufnahme sind noch nicht bekannt gegeben worden. Am Design der Platine und an der Kühlung wird laut nVidia noch gearbeitet, aktuell gezeigte Muster sind nicht final. Die Gerüchteküche wird also nicht weiterhin vor sich hin kochen, frühestens im März werden erste Karten mit dem GF100 erwartet.

Zur Einstimmung folgt noch ein Video der PCGH, welches die neue Techdemo "Supersonic Sled" zeigt. In dieser Präsentation wird unter anderem die Physikbeschleunigung anschaulich gemacht und viele Details werden per Tesselation dargestellt.

Video:

Dennis Ziesecke Freier Redakteur - P - 29622 - 19. Januar 2010 - 19:43 #

Klingt ja alles schon mal wieder sehr gut. Auf jeden Fall sind Hoffnungen auf sehr hohe Leistungen drin - bei saftigen Preisen allerdings wie zu befürchten steht. Bin gespannt.

Stefan1904 30 Pro-Gamer - P - 128500 - 19. Januar 2010 - 23:16 #

Hast du diesen Artikel bei SemiAccurate gelesen? http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/

Klingt weniger gut.

Dennis Ziesecke Freier Redakteur - P - 29622 - 20. Januar 2010 - 1:06 #

Ok, es ist von Charlie. Der ist nicht unbedingt dafür bekannt, nVidia positiv zu beurteilen. Auf der anderen Seite hatte er in der Vergangenheit auffallend oft den richtigen Riecher und offenbar auch die richtigen Kontakte. Rein rechnerisch hat er natürlich recht, selbst bei unrealistischen 100% Yield würde sich nVidias Neuling nur sehr schwer konkurrenzfähig auspreisen lassen. Spannend wirds bleiben, mich jedenfalls interessieren die teuren Topmodelle aber eh nicht, daher schiele ich auf den 05.02. und damit auf ATIs HD5830.

Stefan1904 30 Pro-Gamer - P - 128500 - 19. Januar 2010 - 22:17 #

Die Firmen – sowohl ATI und als auch nVidia – sollten sich mal langsam daran machen, effiziente GPUs zu entwickeln. Ich frage mich, warum der Ansatz von PowerVR nicht weitergeführt wurde. Momentan wird diese Technik ja nur im Mobile-Bereich eingesetzt.

Dennis Ziesecke Freier Redakteur - P - 29622 - 19. Januar 2010 - 23:21 #

Machen sie doch. Interessiert nur die meisten Gamer hat nicht ;) .. nVidia hat mit Tegra eine komplette Plattform für mobile Anwendungen auf der immerhin UT3 läuft (siehe mein CES-Bericht). Und die Onboardlösungen sind so langsam nun auch nicht mehr - ein Board mit HD3200-Grafikchip inkl. Sideportram bringt immerhin die Leistung einer Geforce 6600GT/Radeon 9800Pro. Und einfache diskrete Lösungen wie die kommenden HD5300er bringen für viele Anwender ebenso ausreichend Leistung, nur eben nicht für FullHD und Crysis@max..

Dazu kommt, dass der Maximalenergiebedarf eh unwichtig ist. Wenn ich in der Woche mal zwei oder drei Stunden den maximalen Bedarf einer Grafikkarte abrufe ist das nicht schlimmer als eine Stunde Haare föhnen der Freundin oder sogar deutlich weniger schlimm als die Nutzung eines Wäschetrockners (welcher trotzdem in einem Haushalt mit einem kleinen Kind mehr als genial ist). Interessant ist fast ausschließlich der Idle-Verbrauch. Die meiste Zeit langweilt sich so eine Grafikkarte doch eh nur vor sich hin - ATI macht es da richtig vor mit den 5000ern, 15-19 Watt Energiebedarf im Idle ist schon sehr sehr gut, die 19 Watt gelten sogar für die Highendmodelle - und auch die Doppelchipschlachtschiffe brauchen im Idle weniger Energie als eine unaufmerksam angelassene Glühlampe "herkömmlicher Bauweise".

melone 06 Bewerter - 1512 - 20. Januar 2010 - 10:07 #

Weiß nicht, ich würde mir eine gewisse Affinität zu Computerspielen und -grafik jetzt nicht absprechen wollen und trotzdem wäre ich zu weniger, gut ausbalanciert, bereit. Es fehlt eine Ausrichtung auf ein Segment, daß wesentlich weniger verbraucht als die aktuellen Serien, aber trotzdem nicht im untersten Verbrauchs/Leistungsspektrum angesiedelt ist.

Mit solch einer Performance/Plattform könnte man trotzallem viele schöne Spiele spielen, wobei natürlich nicht alles an Eye Candy geht, aber das braucht's auch meist nicht für ein gutes Spiel.

Der Peak-Verbrauch ist schon von Interesse, da über ihn die Plattform definiert wird, sprich was für eine Kühllösung brauche ich, wie muß die Stromversorgung ausgelegt sein, in was für Gehäuse kann ich ein solches System unterbringen etc, ist schon entscheidend.

Nur mal so aus den öffentlich vorhanden Informationen geschlossen, finde ich, daß nVIDIA bei der neuen Architektur gute Arbeit abgeliefert hat und sich eine Basis für kommende Karten gelegt hat; da steckt schon einiges drin. Vielleicht tut sich da ATI, wegen der Nähe zu AMD, beim nächsten Schritt ja etwas leichter.

Was sich nVIDIA sicherlich anders vorgestellt hat ist die Verlustleistung und die Verzögerungen aufgrund der Schwierigkeiten bei TSMC - das gab's aber je nach Generation immer mal wieder hier wie drüben.

Die großen Karten gehen, was Spiele anbelangt, sicherlich erst mal an die Entwickler und Poweruser los und dann wird's spannend wie schnell nVIDIA das Mainstreamsegment (wie mit nem GF102?) nachlegen kann.

Zudem sollte man auch nicht vergessen, daß ein gleiches Feature auf dem Papier unterschiedlich gut implementiert sein kann - auch die tabellarische Gegenüberstellung ist interessant, aber nicht immer hilfreich, da die Segemnte sich nicht 1:1 vergleichen lassen. Ich fand z.B. Unigine auf ner GF100 weicher, als auf ner neuen ATI.

Was mich an der nVIDIA Karte neben der Tesselation besonders interessiert ist auch deren Einsatz in Nichtspielegefilden.

Dennis Ziesecke Freier Redakteur - P - 29622 - 20. Januar 2010 - 13:48 #

Naja, gerade bei der stagnierenden Spieleentwicklung dank Konsolenports sollte doch eine HD5670 oder HD5750 fast jedem Anwender reichen. Und eine Energieaufnahme von bis zu 70 Watt bei der 5670 ist noch vertretbar finde ich. Passiv zu kühlen auf jeden Fall.

melone 06 Bewerter - 1512 - 20. Januar 2010 - 15:04 #

Noch weniger Watt und in diesem Bereich dann auf Leistung optimieren, dann ham mas.

Crizzo 18 Doppel-Voter - 11133 - 19. Januar 2010 - 23:15 #

So viel Leistungsaufnahme? Da ist doch "nur" die Grafikkarte gemeint, oder?

Dennis Ziesecke Freier Redakteur - P - 29622 - 19. Januar 2010 - 23:22 #

225-300 Watt? Klar, ausschließlich - aber dafür unter Volllast.

Earl iGrey 16 Übertalent - 5042 - 20. Januar 2010 - 1:54 #

Jemand sollte mal eine direkte Gegenüberstellung des Leistungsvermögen von nVidia und ATI Produkten wie in diesem Film zeigen. Das wäre dann noch aufschlussreicher als die tabellarischen Werte finde ich. :)

Fischwaage 17 Shapeshifter - 6765 - 20. Januar 2010 - 8:04 #

Die dargestellte Sequenz erinnert mich an Indiana Jones und das Königreich des Kristallschädels.

VanillaMike 14 Komm-Experte - 1875 - 20. Januar 2010 - 10:27 #

Ich warte bis die neuen Karten draußen sind und kaufe mir dann die eine Stufe drunter, die dann deutlich im Preis nachlassen!! Hoffe ich zuminest :-D

Ganon 22 AAA-Gamer - P - 35484 - 20. Januar 2010 - 13:05 #

Werden beim GDDR-RAM eigentlich immer die geraden Zahlen ausgelassen? Nach der ersten Version kam schon 3 und jetzt 5. Oder kommt mir das nur so vor?

Rondrer (unregistriert) 20. Januar 2010 - 13:15 #

Nee, das hat sich so ergeben. Es gibt GDDR4 RAM und er wurde auch auf manchen Karten verbaut, hat sich aber einfach nicht durchgesetzt.

Dennis Ziesecke Freier Redakteur - P - 29622 - 20. Januar 2010 - 13:46 #

ATI hat da einige Modelle mit GDDR4 gehabt, in der 2000er-Reihe. Die waren dann dank im Vergleich zu GDDR3 höheren Taktraten auch etwas schneller. GDDR5 ist aber eine deutlich gravierende Weiterentwicklung, da die effektive Geschwindigkeit sich quasi verdoppelt im Vergleich zu den Vorgängern.

Ganon 22 AAA-Gamer - P - 35484 - 20. Januar 2010 - 16:48 #

Alles klar, danke für die Erklärungen. In den letzten Jahren war ich bei Grafikkarten nicht mehr ganz Up-to-Date.

Marco Büttinghausen 19 Megatalent - P - 19331 - 22. Januar 2010 - 18:49 #

Das klingt ja schonmal gut, ein wenig Sorge macht mir das die Karte weniger TMUs hat als die 285er und der Bus reduziert wurde um Strom zu sparen, grundsätzlich wäre also mehr Leistung drin, ob es sich wohl lohnt auf eine bereinigte "385er" zu warten?

Dennis Ziesecke Freier Redakteur - P - 29622 - 22. Januar 2010 - 23:50 #

Effektiv wurde die Speicherbandbreite allerdings erhöht. GDDR5 verspricht quasi eine verdoppelung der Bandbreite, so dass eine 285 mit 256 Bit Speicherinterface und GDDR5 soviel Bandbreite hätte wie eine 285 mit 512 Bit und GDDR3.

Mir machen die Preise und die Ausbeute an funktionsfähigen Chips ehrlich gesagt mehr sorgen. Oder würdest du dir eine Karte kaufen, die zwar etwas schneller als das aktuelle Topmodell ist aber dafür 500-600 Euro kostet?

Marco Büttinghausen 19 Megatalent - P - 19331 - 23. Januar 2010 - 2:14 #

Ich würde (und habe) 600€ für eine Graka bezahlen, aber nicht für "etwas" mehr Leistung, 75-100% mehr als meine (ab Werk) hochgetaktete 285er will ich schon sehen dafür.

Im Grunde ist es aber das gleiche Problem wie z.B. bei Assassin's Creed 2, hätte nie einer was gesagt wären alle happy gewesen, aber als bekannt wurde das Kapitel 12-13 entfernt wurden um es als DLC anbieten zu können, haben alle laut gerufen das Spiel wäre unvollständig. Das selbe hier, ich bin bereit gutes Geld zu bezahlen, erwarte (wünsche) mir dann aber auch das der Hersteller nichts zurück hält.

Dennis Ziesecke Freier Redakteur - P - 29622 - 23. Januar 2010 - 8:57 #

Ich frage mich übrigens immer noch, wann der Aufschrei der Fachpresse durch die Computermedien geht, dass die 300er-Reihe bei nVidia offenbar technisch zweigeteilt wird. Die G310 und 320 gibt es ja bereits, mit DX10.1-Technik. Da GTX380 und GTX360 recht realistische Namensgebungen für die großen Modelle sind wäre eine Situation wie bei der GF4 gegeben, wo man sich mit der MX auch veraltete Technik zu hohen Preisen kaufen konnte. Oder benennt nVidia die Fermi-Karten gar komplett anders und spielt damit endlich wieder fair? Warum glaube ich daran nicht?

Marco Büttinghausen 19 Megatalent - P - 19331 - 23. Januar 2010 - 15:07 #

Das Prinzip von altem Wein in neuen Schläuchen im Mid, oder Low Segment perfektioniert Nvidia doch schon seit Ewigkeiten. Waren die kleinen Karten in der 4er Serie nicht eigentlich aufgemotze Geforce2 Karten? Von der 5er Serie wollen wir gar nicht erst sprechen.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit