nVidia GTX470 und GTX480: Preise und Benchmarks

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

18. März 2010 - 15:00 — vor 14 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Es sind nur noch knapp zehn Tage bis zum offiziellen Start der neuen Grafikkartenhoffnung aus dem Hause nVidia. Nach vielen Verzögerungen und nur sehr sporadisch verteilten Informationsschnipseln gelangen jetzt mehr und mehr Daten zu den beiden kommenden Highendkarten an die Öffentlichkeit. Natürlich sind diese Informationen immer noch mit Vorsicht zu genießen, doch klingen die Quellen durchaus seriös.

Im Forum der Hardwareseite www.techpowerup.com veröffentlichte ein User jetzt nicht nur viele, teilweise schon bekannte Fotos von GTX470 und GTX480, sondern auch Spezifikationen und Benchmarkergebnisse. Wie sich bereits auf der CeBIT heraushören ließ, wird die GTX480 wahrscheinlich nicht mit den maximal möglichen 512 Shadereinheiten auf den Markt kommen, sondern in einer auf 480 Einheiten kastrierten Version. Offenbar gibt es weiterhin Probleme bei der Ausbeute korrekt funktionierender Chips, eine später erscheinende überarbeitete Revision könnte dann die vollen 512 Shadereinheiten spendiert bekommen.

In den gezeigten Benchmarkergebnissen wird ein GTX470 mit ATIs HD5870 verglichen. Besonders bei den für ein flüssiges Spielerlebnis wichtigen Minimum-FPS legt nVidias neuer Spross gut vor. Crysis Warhead (gebencht in 2560x1600, 4xAA, mit einem Core-i7 920 und 6GB RAM) erreicht auf der GTX470 10,48 FPS als Minimum, während ATIs 5870 nur 2,90 FPS darstellt. Insgesamt liegt ATIs Grafikkarte bei Crysis Warhead aber mit 15,46 FPS zu 15,44 FPS knapp vorne. Bei Hawx, einem bisher als sehr nVidia-freundlich bekannten Spiel, liegt abermals die GTX470 bei den Minimum-FPS mit 40 zu 23 vorne. Im Durchschnitt gewinnt aber wieder ATI mit 51,5 zu 49,1 FPS. Besser sieht es bei Farcry 2 aus, erneut in 2560x1600, dieses mal mit 8x Kantenglättung gemessen. Die GTX470 erreicht 30 FPS als Minimum und schlägt damit ATIs 5870, welche nur 17 FPS erreicht, fast um das Doppelte. Bei den durchschnittlichen FPS relativiert sich der Sieg zwar auf 40 FPS zu 32 FPS, dennoch ist der Vorsprung nicht unerheblich. 

Der Threadstarter bei techpowerup fasst die Benchmarkergebnisse zusammen und kommt zu dem Schluss, dass die GTX470 ungefähr fünf Prozent weniger Leistung liefert als eine HD5870. Die GTX480 liegt seiner Einschätzung nach bei 10-15% Mehrleistung im Vergleich zu einer HD5870, während die Dualchip-Karte HD5970 weiterhin die schnellste Karte mit über 20% Vorsprung zur GTX480 bleiben wird. Generell scheint sich nVidias neue Grafikkartenserie sehr gut in Szenen mit hohem Tesselationaufwand zu schlagen, so auch Unigines Heaven-Benchmark. Unbekannt ist bisher, wie sehr die Leistung einbrechen wird, wenn gleichzeitig viele und aufwändige Shader berechnet werden müssen. Bei nVidia kommt keine gesonderte Tesselationeinheit zum Einsatz, diese Aufgabe erledigen die Shadereinheiten quasi Nebenbei, weshalb es hier unter Umständen zu einem Engpass kommen könnte. Die gezeigten Benchmarkergebnisse sollte man aber noch nicht zu ernst nehmen, da sich durch Weiterentwicklungen im Grafiktreiber noch einiges an Power aus neuen Karten holen lässt. Apropos "Power", der Energiebedarf scheint nicht sonderlich gering auszufallen, so hört man die Gerüchteküche munkeln, eine GTX480 verbraucht mit maximal 290 Watt fast so viel Energie wie die PCIe-Spezifikation überhaupt zulässt. Und auch die GTX470 soll mit 220-240 Watt deutlich mehr Strom schlucken als die Pendants von ATI – die HD5870 liegt bei maximal 188 Watt.

Unterdessen berichtet Fudzilla von den zu erwartenden Preisen der neuen nVidia-Karten. So soll die GTX470 bei 349 Euro starten. Bright Side of News liegen mit 299-349 US-Dollar dank mittlerweile schon üblicher 1:1-Umrechnung von US-Dollar in Euro vergleichbare Zahlen vor. Die GTX480 soll in der Preisgestaltung deutlich geringer liegen, als bisher vermutet – ca. 449 Euro sollen geplant sein. NVidia ist guter Dinge, zum Verkaufsstart am 29. März eine gute Verfügbarkeit garantieren zu können. Boardpartner und Händler hingegen äußern sich da weniger optimistisch und gehen von einer flächendeckenden Verfügbarkeit nicht vor dem 6.April aus, während größere Mengen der Karten sogar erst Ende April erwartet werden.

Video:

Crizzo 20 Gold-Gamer - - 24412 - 16. März 2010 - 22:58 #

max. 15%...lausige 15% mehr Leistung als eine HD5870? Na, klasse und dafür haben die so lange gebraucht.
Schauen wir mal, ob ATIs Desaster von nVidia wiederholt wird und die Verfügbarkeit eingehalten werden kann.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 16. März 2010 - 23:00 #

Wenn sich die Benches bestätigen, wird nVidia sich wohl an die FX5800 Ultra erinnern. Oder an ATIs 2900XT, die auf dem Papier furchtbar gut klang und in der Realität stark schwächelte. Wenn die grünen Amerikaner aber noch einen Trumpf in der Hinterhand haben, stehe ich Gewehr bei Fuß um ihnen zu gratulieren.

Crizzo 20 Gold-Gamer - - 24412 - 16. März 2010 - 23:17 #

So viel kann ein neuer Treiber gar nicht rausholen, um diese Graka-Gen noch gut aussehen zu lassen^^

Dennis Ziesecke 21 AAA-Gamer - 30866 - 16. März 2010 - 23:01 #

Ach ja - und danke Stefan, irgendwann lerne ich das mit den Formatierungen auch noch ;) .

Stefan1904 30 Pro-Gamer - 128595 - 16. März 2010 - 23:05 #

Wie hoch waren nochmal die geschätzten Kosten für die Produktion einer Karte mit Fermi-Chip? Bei den Verkaufspreisen dürfte nVidia wohl kräftig draufzahlen.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 16. März 2010 - 23:09 #

Ich denke mal schon, dass die Yields besser aussehen als noch vor einigen Wochen. Da war noch von 10 Chips pro Wafer (je ca. 4000 Dollar pro Wafer) die Rede. Allerdings scheint die Ausbeute besser geworden zu sein, nicht zuletzt wohl auch wegen der Begrenzung der Shadereinheiten. Viel Gewinn verspricht so eine 400er-GTX aber vorerst wohl nicht zu machen.

Tassadar 17 Shapeshifter - 8161 - 16. März 2010 - 23:25 #

"NVidia ist guter Dinge, zum Verkaufsstart am 29. März eine gute Verfügbarkeit garantieren zu können."

Laut 3DCenter.org (siehe http://www.3dcenter.org/news/2010-03-16) soll die Verfügbarkeit erst zum 06. April gewährleistet sein und gute Verfügbarkeit sicher zu diesem Termin noch nicht.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 16. März 2010 - 23:30 #

Wie so oft, PR und Realität. Ich werde deine Anmerkung aber noch einbauen. Ist ja auch irgendwie klar, dass NVidia guter Dinge ist - die waren ja auch der Meinung, die Karte schon vor einem halben Jahr verkaufen zu können ;) .

Tassadar 17 Shapeshifter - 8161 - 18. März 2010 - 3:44 #

Genau ;), danke fürs Einbauen.

Larnak 22 Motivator - 37541 - 17. März 2010 - 0:26 #

Nun, das klingt zwar nicht nach einem Desaster, aber als Rechtfertigung für die Verzögerung kann die Leistung der Karten auch nicht herhalten. Ich bin jedenfalls sehr zufrieden mit meiner ATI-Karte und sehe momentan noch keinen Grund, den Kauf zu bereuen, auch und gerade nicht im Vergleich zu den NVidia-Karten. Trotzdem können wir uns als Kunden glücklich schätzen, dass das Desaster ausgeblieben ist und die Karten zumindest auf einem Leistungsniveau sind, sodass es weiterhin ernstzunehmende Konkurrenz geben wird.

Tom T (unregistriert) 17. März 2010 - 7:19 #

ich freue mich. warum?

na dass sich endlich vernünftige Preise bei den ATI Karten
eintreten werden....und vielleicht später auch bei den von NV.
Ich kaufe das was ein gutes P/L-Verhältnis hat egal welcher Hersteller.
Und nachdem beide Hersteller endlich ihre High End Karten
draußen haben, werde ich mich nach der Preiskorrektur bedienen.
Gut dass ich gewartet habe.

Gruß

icezolation 19 Megatalent - 19280 - 17. März 2010 - 11:26 #

Na, dann mal schauen wie sich das preislich entwickelt. Mehr als 250 Euro werde ich für eine Graka jedenfalls nicht auf den Tisch legen (und im schlimmsten Fall noch Testkarnickel spielen). Gut das wir den Dod-Ratgeber haben :)

yeahralfi 16 Übertalent - P - 5797 - 17. März 2010 - 14:09 #

290 Watt?? WTF???

Langsam nimmt das doch irrwitzige Züge an. Die ganze Welt redet von Energiesparen und Umweltschutz - nur meine Grafikkarte zieht bald mehr Strom als ein 70er-Jahre-Heizlüfter? Von der Geräuschkulisse, um die nicht unbeträchtliche Abwärme zu entsorgen mal ganz abgesehen.

Und wofür das ganze? Zum Vergleich: Ich habe aktuell eine passiv gekühlte ATI5750, die lautlos läuft und weit weit weniger Energie benötigt und spiele fast alle aktuellen Spiele auf max. Details. Klar, irgendwann wird´s auch wieder Spiele geben, die mehr Leistung brauchen. Aber dann kaufe ich mir eben ne neue, wenn´s denn soweit ist. Wahrscheinlich sind wir dann eh schon wieder 1-2 Kartengenerationen weiter...

Meiner Meinung nach hat sich Nvidia momentan in eine nicht besonders zukunftsträchtige Sackgasse hinein manövriert.Und nein, ich bin kein ATI-Fanboy, da ich schon Karten von beiden Firmen besessen habe.

Ist mir sowieso schleierhaft, wie man zum Fan eines Elektronikherstellers werden kann. Mein Staubsauger ist von Miele. Deshalb bashe ich aber noch lange keinen mit ´nem Siemens-Sauger. Wobei...wenn ich´s mir recht überlege...Siemens sucks wäre bei einem Sauger ja sogar noch ein Kompliment...;-)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 17. März 2010 - 14:33 #

Wenn man sich die Bilder der 480 so anschaut, läuft der Lüfter mit 12 Volt bei 1,8 Ampere. DAS wird laut wenn der auf mehr als 50% läuft..

Pro4you 19 Megatalent - 16342 - 17. März 2010 - 21:45 #

Kurze Frage :

Ist es möglich eine bessere Grafikkarte von Nivida in den Mac Mini zu verbauen oder ist es nicht möglich da dies ein macintosh und kein pc ist? Der Mac mini besitzt zur info eine Nivida Geforce 9400 karte in sich

Dennis Ziesecke 21 AAA-Gamer - 30866 - 17. März 2010 - 22:01 #

Der MacMini hat mit der 9400er keine gesteckte Karte sondern nur einen Onboardchip. Der lässt sich nicht tauschen. Bei großen Macs wäre der Tausch zwar theoretisch in einigen Fällen möglich, die Karte muss dann aber ein spezielles Mac-Modell mit angepassten Grafik-BIOS sein, sonst tut sich auch nichts.

Pro4you 19 Megatalent - 16342 - 17. März 2010 - 22:36 #

hweißt oich kann nichts wegen der grafik umbauen bzw austauschen>?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 17. März 2010 - 22:46 #

Genau so ist es. Und selbst wenn - WO verdammt würdest du bei nem Mini die Grafik hinstecken wollen? Meinst du wirklich, da ist noch viel Platz? ;)

Pro4you 19 Megatalent - 16342 - 17. März 2010 - 23:06 #

mach den mini nicht schlecht xd

Dennis Ziesecke 21 AAA-Gamer - 30866 - 17. März 2010 - 23:09 #

Mach ich ja gar nicht. Aber der Mini ist halt nicht für Grafikpower konzipiert. Der soll KLEIN sein, das sagt ja schon der Name. Oder würdest du Schumi in nem VW-Käfer Konkurrenz machen wollen?

Pro4you 19 Megatalent - 16342 - 17. März 2010 - 23:21 #

Selbst in was kleinem darf doch viel power stecken? Der Mac Mini ist doch nicht auf seine kleinheit beschränkt sondern hat dafür auch eine optimale bedien oberfläche mit Intel core 2 duo Prozessor, 4 Gb arbeitsspeicher und 5 usb schnittstellen. :/

Dennis Ziesecke 21 AAA-Gamer - 30866 - 17. März 2010 - 23:22 #

Klar. Aber schnelle Grafik bedeutet halt momentan auch noch "viel Energiebedarf" - was wiederum bedeutet "hohe Abwärme", was sich mit einem kleinen Gehäuse wieder nicht in Zusammenhang bringen lässt.

Pro4you 19 Megatalent - 16342 - 17. März 2010 - 23:29 #

Das würde ich so nicht unterschreiben. Je nach dem wie optimal du das gehäuse vewendest und ausbaust kann dies schon möglich sein. Der Mac mini ist sehr leistungsstark. Hmm was würdest du denn meinen wie gut das preis leistungs verhältniss stimmt zum Mac mini und 800 euro, wobei meine version 4 gb arbeitsspeicher hat.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 17. März 2010 - 23:31 #

Können wir die Diskussion mal beenden hier? Hat ja mit dem Thema eigentlich nichts zu tun. Und physikalische Grundlagen zu erörtern - naja, muss hier nicht sein. Fakt ist: in das Gehäuse vom Mini passt keine Grafikkarte rein. Kannst ihn ja mal öffnen und nachmessen. Ungeachtet dessen ist der Mini durchaus nett und für die Anwendungen, für die er gebaut wurde auch stark genug. Aber diese Anwendungen sind halt keine aktuellen Spiele.

Pro4you 19 Megatalent - 16342 - 17. März 2010 - 23:33 #

Starcraft 2 warscheinlich schon xD

Dennis Ziesecke 21 AAA-Gamer - 30866 - 17. März 2010 - 23:34 #

*sigh*

NotForMe (unregistriert) 18. März 2010 - 10:49 #

Ich mag den PC, ich bin damit groß geworden und finde Konsolen immer noch iBäh. Aber ich frage mich, wofür man zu einer Zeit, in der fast alle grafisch aufwändigen Spiele leider erst einmal für Konsolen entwickelt und dann auf den PC konvertiert werden, Grafikkarten mit fast 250 Watt Stromaufnahme überhaupt braucht? Gut, außer der "Meiner ist länger"-Fraktion vielleicht.

Denn mal ehrlich: Außer Crysis 2 fallen mir auf Anhieb keine Spiele mehr ein, von denen man annehmen könnte, dass sie das Potential solcher Karten auch nur annähernd ausreizen würden. Selbst meine anderthalb Jahre alte GTX280 dreht immer noch Däumchen und wartet auf das Spiel, das sie (außer bei den "Ultrapowermegahigh"-Details, die im direkten Vergleich zu "High" keinen erkennbaren Unterschied ausmachen) wirklich in die Knie zwingt.

Und weil das so ist, kommt man auf die alberne Idee, die neuen Karten bei realitätsfremder 2560er Auflösung gegeneinander antreten zu lassen, um überhaupt vergleichbare Ergebnisse zu erhalten. Immerhin kann man Techpowerup zugute halten, danach einen Mittelwert aus allen Tests gebildet zu haben - und Nvidias Marketinghype Lügen zu strafen. Wer zu spät kommt...

Fermi or not fermi? Not for me.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 18. März 2010 - 11:11 #

Man kann sich Anwendungsszenarien erschaffen, wenn man mag. 3D-Vision und ähnliche stereoskopische 3D-Techniken zum Beispiel erzeugen gut doppelt so viele Daten wie herkömmliche Pseudo-3D-Grafik. Da ist auch eine GTX285 schnell überfordert, wenn man in den mittlerweile üblich gewordenen 1920x1080 spielen will. ATI war auch schlau und hat der brachialen Leistung von HD5870 und co. gleich die passende Anwendung mitgeliefert - Eyefinity. Mit 5720x2160, also der Auflösung von Eyefinity6 mit sechs 23"-TFTs simultan, braucht man dann auch schon wieder etwas mehr Power ;) . Und um die nachfolgende Generation auch gleich zu rechtfertigen - wenn jemand bei dieser Konfig. auch noch eine Shutterbrille nutzen will - holla :D ..

Video von der CeBit zu Eyefinity6 (hats leider nicht mehr in den CeBIT-Bericht hier auf GG geschafft) : http://www.youtube.com/watch?v=DsAnQTTTqnY

Disclaimer : Ich heiße solche Grafikmonster aus rein logischen Gesichtspunkten auch nicht gut. Aber technisch gesehen sind die Karten spannend. Immerhin ;) . Kaufen würde ich mir ein solches Topmodell zu derart hohen Preisen aber nicht.

Mitarbeit