Der König ist tot -- es lebe der König! NVidia beerdigt die GTX480 und stellt die GTX580 vor. Damit lösen die kalifornischen GPU-Spezialisten ihr Topmodell nach nur acht Monaten ab ersetzen es gegen ein überarbeitetes Modell.
Allerdings hatte es die GTX480, die Karte mit dem bis gestern schnellsten Single-Grafikprozessor auf dem Markt, nicht leicht. Bereits vor dem Release rankten sich unzählige Gerüchte über Fertigungsprobleme, fehlerhafte Chips und extreme Energieaufnahmen um den Chip. Als es dann mit fast einem halben Jahr Verspätung im März die erste Fermi-Grafikkarte das Licht der Händlerregale erblickte, bestätigten sich die Befürchtungen bezüglich des Stromverbrauchs. Auch in Sachen Lautstärke war die GTX480, zumindest unter Last, kein Vorbild. Dabei musste NVidia den eigentlich auf höhere Leistungen ausgelegten Fermi-Chip bereits beschneiden, um überhaupt eine marktfähige Karte zu erhalten. Von ursprünglich geplanten 512 Shadereinheiten verblieben der GTX480 nur 480, auch bei den Textureinheiten und den ROPs wurde der Rotstift angesetzt. Dennoch war die Geforce GTX480 schneller als AMDs Konkurrenzkarte HD5870. Und vielen Enthusiasten waren sowohl Lautstärke als auch Energiebedarf herzlich egal.
Technisches
Die GTX580 basiert natürlich auf dem Fermi-Grafikkern der GTX480 und stellt grob gesehen deren unbeschnittene Vollausstattung dar. 512 Shadereinheiten, 64 TMUs und 48 ROPs arbeiten zusammen mit einem 384 Bit breiten Speicherinterface für 1,5 GB GDDR5-RAM. Beim Speicher hat sich also nur wenig getan, einzig die Taktfrequenz wurde von 924 MHz bei der GTX480 auf 1002 MHz erhöht. Die GPU der GTX580 selbst taktet mit 772 MHz knapp 10 Prozent schneller als beim Vorgänger. Die Techniker bei NVidia mussten allerdings einige Detailänderungen im Chip vornehmen, um sowohl den Energiebedarf zu senken, als auch die Leistung zu erhöhen. Allerdings scheint das Innenleben des GF110 genannten Chips noch stark mit dem des GF100 verwandt zu sein. So ist die Video-Engine der GTX580 nicht auf dem Stand der kleineren GF104-GPUs und unterstützt weder DTS-HD Master Audio noch Dolby True HD.
Leistung
Die Leistung der GTX580 kann sich sehen lassen. NVidia liegt zwar immer noch knapp hinter AMDs Flaggschiff, der HD5970 -- diese Karte besteht aber aus zwei GPUs und leidet unter den Nachteilen von Multi-GPU-Lösungen wie Mikrorucklern und teils nur zögerlicher Treiberanpassung. AMDs HD5870 wird indes in so gut wie allen wichtigen Gamingdisziplinen um bis zu 40% geschlagen. Den eigenen Vorgänger, die GTX480, schlägt das neue Geforce-Modell um 15 bis 20%. Ein durchaus absehbares Ergebnis angesichts der nur moderat gestiegenen Taktraten und der um wenige Prozent erhöhten Shadermenge. Besonders die sehr schnelle Tesselationeinheit der GTX580 beschleunigt moderne Titel wie Metro 2033 stark. AMD wird sich mit der voraussichtlich Ende November erscheinenden HD6970 anstrengen müssen, die GTX580 zu schlagen. Wer also kompromisslose Leistung auch in höchsten Auflösungen verlangt, wird mit der GTX580 glücklich. Durch den Support von 3D-Vision und der extremen Grafikleistung eignet sich die neue Geforce auch hervorragend für Spiele in stereoskopischem 3D.
Lautstärke, Energieaufnahme
Um eine Karte mit knappen 3 Milliarden Transistoren und der Leistung eines nur wenige Jahre alten Superrechners effizient zu kühlen, musste sich NVidia etwas einfallen lassen. Trotz gesteigerter Leistung schafften es die Ingenieure immerhin, den Energiebedarf der GTX580 um gute 20 Watt bei Volllast zu senken. Im "Windows-Modus", also im 3D-Ruhezustand, liegt AMD noch immer ein wenig in Führung, unter Last (bei geringerer Leistung) sowieso. Ein großer Wurf hingegen ist NVidia mit dem Kühlsystem der GTX580 gelungen. Eine Verdunstungskammer, "Vapor Chamber" genannt, sorgt für eine großflächigere Wärmeverteilung weg vom heißen Grafikchip, hin zu den Kühlrippen der Lüfterkonstruktion. Die Vapor-Chamber besteht in diesem Falle aus Kupfer, die zugrunde liegende Technik nutzt AMDs Leib-und-Magen-Hersteller Sapphire bei den hauseigenen Vapor-X-Grafikkarten schon eine gute Weile. NVidia will das Prinzip noch etwas überarbeitet haben -- und tatsächlich ist der Geräuschpegel einer unter Volllast laufenden GTX580 mit 1,3 Sone kaum höher als der einer AMD HD6870. Letztere liefert jedoch deutlich weniger Leistung und benötigt nur einen Bruchteil der Energie. Im Ruhezustand lässt sich eine GTX580 mit 0,3 Sone nur schwer aus einem laufenden Computer heraushören.
Weniger gut sieht es hingegen beim Preis der GTX580 aus. Glücklicherweise handelte es sich bei der Produktvorstellung um einen sogenannten "Hard Launch", es sind also zum Start tatsächlich ausreichend Karten im Handel verfügbar. Allerdings beginnen die Preise erst bei 470 Euro und liegen damit mehr als 100 Euro über den Preisen der GTX480. Diese wird seit der Vorstellung der GTX580 übrigens nicht mehr produziert; die Restbestände werden abverkauft. AMD reagierte recht flott auf die GTX580 und senkte zügig die Preise für das aktuelle Topmodell HD5970 -- ein Preissturz von knapp 500 Euro auf 370 Euro.
Fazit
Die GTX580 ist die schnellste Single-GPU-Grafikkarte auf dem Markt. Wie lange noch, muss sich allerdings zeigen, da in wenigen Wochen AMDs HD6970 erscheint. Im Gegensatz zur GTX480 handelt es sich bei der GTX580 um eine vertretbar leise Karte. Doch der Energiebedarf liegt noch immer auf einem viel zu hohen Niveau. Wer allerdings für maximale Leistung unter Volldampf auch einmal 300 Watt nur für die Grafikkarte investieren mag, wird gut bedient. Der Preis der GTX580 erscheint uns im Vergleich zum nur 15 bis 20% langsameren Vorgängermodell etwas zu hoch angesetzt.
Viel zu teuer. Eine 500-Euro-Grafikkarte braucht man heutzutage nicht mehr, der Aufrüstwahnsinn hat sich (u.a. aufgrund der Konsolen) in den letzten 2-3 Jahren enorm verlangsamt.
Meine ATI5850 wird mir wahrscheinlich bis zum Ende der Konsolengeneration gute Dienste leisten.
Volle Zustimmung. Solche Karten sind nette Prestigeobjekte - sowohl für die Hersteller als auch für die performancehungrigen Kunden. OK, als CUDA-Karte in chinesischen Superrechnern machen sich die Dinger gut. Und wer Highres-Mods liebt und gerne mit mehreren Bildschirmen und Kantenglättung in 3D spielt kommt trotzdem nicht um solch ein Monster herum. Trifft aber nicht auf viele Leute zu :D .
Jup, einer der wenigen Gründe der ums ich greifenden Konsolifizierung zu danken.
Ich sags immer wieder: ich hab immer noch eine Geforce 8800 512 von Ende 2007 - und spiele immer noch alles bei hohen bis maximalen Details. Warum aufrüsen? Lieber warten bis zur übernächsten Generation, die mit der neuen Xbox kommt und dann für 150€ eine Radeon HD 7650 mitnehmen.
Ähnliches hier. Habe noch eine Radeon HD 4870 von Ende 2008 und kann damit auch noch alles mit zumindest hohen Details spielen. Finde ich gut, muss man nicht immer so viel Geld für Hardware ausgeben, sondern kann es in neuen Spielstoff stecken.
Die hatte ich auch noch bis vor zwei Wochen. Nun bin ich auf die GTX 470 SOC von Gigabyte umgestiegen, mit einem leisen Kühler und übertaktet. Also der Unterschied ist schon merklich. Vor allem habe ich die Karte für EUR 270,-- gekauft, sie ist nicht viel langsamer als eine GTX 480.
http://geizhals.at/a557580.html
Mit der Karte kann man bestimmt zwei Rechner bedienen. Theoretisch.
Was ein (Preis)Monster...
Die Karte mag leiser sein als der Vorgänger, wirklich leise unter Last ist sie aber auch nicht (hab ne 6870er, ist also nicht einfach geraten). Und müssten nicht Quellen angegeben werden oder habt ihr z.B. die Leistungsunterschiede wirklich selbst gemessen?
Leise im Vergleich zu anderen Modellen mit vergleichbarer Leistung. Extrem leise im Vergleich zum Vorgänger. Wenn ein Mittelklassemodell wie die 6870 so laut ist darf man das ruhig kritisieren. Wenn ein Topmodell wie die 580 so laut ist verdient das allerdings tatsächlich Lob. Zwischen den beiden Karten liegen über 100 Watt an Abwärme.
Kann mit meiner neuen RADEON HD 6850 alles in FullHD und MaxDetails spielen und Benchmarks sind was fuer Kinder...
Viel Spaß mit Metro 2033 ;) .
Ansonsten gebe ich dir ja recht, kaum jemand braucht so teure Karten.
METRO nutzt doch sogar DX11 also sollte nich besser laufen wie andere Spiele oder ? Also ich erwarte keine 50fps aber 25-30 in 1920x1080 werden machbar sein mit allen Details und ohne FSAA
Metro nutzt aber auch Tesselation und PhysX. Letzteres geht mit der ATI schon mal nicht und wird daher von der CPU berechnet - kostet Leistung. Tesselation ist die Spezialität von NV-Karten und läuft mit ATI vergleichsweise schlecht.
Zum Vergleich zu Benchmarkergebnisse von computerbase :
1920x1200 max Details, 4xAA, 16xAF:
ATI 6850: 23,4 FPS
NV GTX580: 44,4 FPS
Ohne FSAA gehts bei der ATI auf 35 FPS hoch, die NV schafft 61 FPS.
Aus eigener Erfahrung: mit einer GTX460OC ruckelt es arg in max. Details und mit Kantenglättung unter DX11. Aber Metro sollte auch kein Maßstab sein..
Bei der Auflösung braucht man FSAA auch nicht soo dringend.
AA wäre mir wichtiger.
aber ich finde metro 2033 braucht sowieso zu viel leistung. ich spiele mit einer hd5770 und kann sonst alle spiele in hoher quali in fullhd spielen. aber bei metro musste ich um spielbare frameraten zu bekommen zumindest tiefenunschärfe abschalten. auf dx9 läuft es noch viel besser.
Auf DX9 fehlt ja auch die Tesselation und einige Schatteneffekte (beides sehr leistungshungrig).
hmm ja schön aber ist die wirklich nötig? hab noch meine 260+ von Gainward und die läuft immer noch gut mit allen an auf 1680x1050...
Wollte eigentlich auf ne 460+ wechseln aber es gibt atm kein Spiel das DX11 wirklich nötig hat und so extrem besser aussieht (Dirt2 sieht auch auf DX10 gut aus...so wirkliche unterschiede muss man mit der Lupe suchen!)
Wart noch auf das PC Spiel wo man wirklich eine DX11 Karte braucht und für das es sich auch lohnt. Aber wird dann auch eher eine 560 werden statt der 580. 200-250 Euro für ne Graka reicht! Mehr ist mir ne Graka ehrlich gesagt net wert!
Bin ich der Einzige, der hier irgendwie eine moderat abgewandelte Pressemitteilung von NVidia liest? Es stehen keine nachvollziehbaren Benchmarks oder Quellen fuer die Leitungsangaben zur Verfuegung und das ganze liest sich fuer mich zu wenig objektiv. Dennis wird sich sicher Muehe gegeben haben, aber ich empfinde diesen Artikel als nicht gut geschrieben - sorry!
Ich denke, du solltest den Text noch einmal lesen. NV würde ihr Produkt sicher nicht als zu teuer und als nur wenig verbessert bezeichnen. Für die bis eben fehlenden Quellenangaben entschuldige ich mich, die hatte ich tatsächlich vergessen einzufügen (Gamersglobal.de war ein Platzhalter).
Davon abgesehen finde ich es lustig - wenn ich etwas über neue AMD-Karten schreibe bin ich ein AMD-Fanboy (oder gar -Mitarbeiter..). Schreibe ich über Geforce-Modelle liest es sich wie eine Pressemitteilung von NV. Mag ich Windows 7 bin ich Windows-N00b, lobe ich die Bedienung vom iPad bin ich plötzlich bedingungsloser Apple-Freak. Einigt euch mal.
Ich respektiere die Leistung der 580, nett gemacht, vor allem mit dem gesunkenen Lärmpegel. Der Preis ist aber klar überzogen und brauchen tut auch kaum jemand so eine Karte. Das ist eine persönliche Meinung und hat im Text nichts zu suchen. Dort stehen Fakten - höhere Geschwindigkeit im Vergleich zur 480 (wäre auch peinlich wenn nicht) und zur 5870. Niedrigerer Lärmpegel als bei der 480 (nicht schwer) und ungefähr so laut wie eine Mittelklassekarte (6870) von AMD - gut gemacht. 300 Watt Peak-Abwärme so vergleichsweise ruhig zu "entsorgen" hat ein Lob verdient. 300 Watt überhaupt erst zu benötigen nicht. Steht so im Text.
Und ich denke, dass ich durchaus lesen UND verstehen kann.
"Die Leistung der GTX580 kann sich sehen lassen."
"kompromisslose Leistung auch in höchsten Auflösungen verlangt, wird mit der GTX580 glücklich"
mal wahllos als Beispiel heraus gepickt. Ich bin halt kein Freund von Superlativen in journalistischer Berichterstattung.
Im übrigen habe ich meine Kritik freundlich und sachlich formuliert und finde solche Sätze, wie Deinen ersten Satz hier doch recht - aehm - arrogant (daher meine zugegebenermaßen ebenso arrogante Replik). Das hast Du sicherlich nicht nötig,oder?
Davon abgesehen ist es jetzt deutlich besser nachvollziehbar wegen der Quellen, dafür ein ausdrücklicher Dank.
"Ich bin halt kein Freund von Superlativen in journalistischer Berichterstattung."
Dann hättest Du Dir die Frage bezüglich der Pressemitteilung ja somit selbst beantwortet. ;)
Nun. Aber es stimmt. Momentan muss man keine Kompromisse eingehen - egal was man mit der Karte anstellen möchte. Und sehen lassen kann sich das Ergebnis auch. Dass die Karte auf hohem Niveau dennoch enttäuscht (zu teuer, zu wenig Verbesserungen zur 480) erwähne ich ebenso.
Ansonsten aber ein Dankeschön für die Kritik und die weiterhin freundlichen Worte. :)
Nimms Dir nicht so sehr zu Herzen... *Schulterklopf* :) Schöner Beitrag! Mir helfen die Hardwarenews bei der Meinungsbildung persönlich weiter und ich finde sie im Gegensatz zu den meisten anderen Hardwareberichten lesbar und verständlich. Um ein Urteil über die Hardware fällen zu können schaue ich mir auch gern subjektive Bewertungen an. Dabei sind Dennis Einschätzungen und die anschließende Sachdiskussion gleichermaßen ausschlaggebend. Ich finde diese Kritik so jedenfalls nicht gerechtfertigt.
Wenn das so ist, bist du bestimmt ein BenQ-Mitarebiter. XD
Und das, wo ich das Mutterunternehmen Acer doch bei jeder Gelegenheit verfluche..
Sorry, die Quellenangaben fehlten. Sind jetzt nachgepflegt.
Was jammert ihr eigentlich alle über den Preis? Früher waren die Top Karten doch vergleichbar teuer. Das schnellste Produkt ist unverhältnismäßig teurer zum darunter liegenden Produkt. War immer so und wird auch nicht geändert, weil man ansonsten einen weniger großen aber enorm zahlungskräftigen Kundenstamm verliert. http://de.wikipedia.org/wiki/Snobeffekt
Außerdem ist der Preis in meinen Augen mindestens so lange legitim bis AMD ein adäquates Konkurrenzprodukt anbietet.
Je länger man wartet bis der Preis einer Grafikkarte runter geht, desto mehr und bessere Karten sind schon wieder auf dem Markt. LOL
Ach was. Übrigens, ich habe hier noch eine ATI Rage+ mit beeindruckenden 2 MB VRAM. Wie wäre es, hat mal 800 Mark gekostet, bekommst sie für 5 Euro :P .
Ja.. aber bis die neue AMD raus ist ist dieses Produkt konkurrenzlos. Und auch die muss dann erst mal zeigen wie schnell sie ist, und was sie kostet. Die kochen auch nur mit Wasser.
@ Industrial set wann macht AMD denn Grakas?
Seit der Übernahme von ATI vor einigen Jahren. Und mit der aktuellen HD6800-Reihe werden die Karten nicht einmal mehr unter dem Namen ATI verkauft.
Merci Dennis Ziesecke.
Wenn man es genau nimmt seit 2006. Ich dachte das wäre mittlerweile allen klar. Selbst hier gab es ne news zur neuen Namenspolitik.
Suche: http://www.gamersglobal.de/news/26706
In Kürze wird auch die GTX470 durch die GTX570 ersetzt, die ungefähr die Leistung der GTX480 erreichen soll (ca. 5-10% weniger). Die wird dann auch etwas günstiger sein. Hoffentlich spart NV dann nicht beim Kühlsystem...
Man merkt, dass das eine Karte im obersten Hardwarebereich ist: einerseits gut, dass sie einige Verbesserungen geschafft haben (is ja auch der Sinn des Ganzen?!), aber bei dem Preis und dem Verbrauch is klar: ohne mich ^^ ... ich bin zwar am überlegen, welche Karte ich mir als nächstes holen sollte, aber das liegt außerhalb meines Geldbeutels...
Prima Artikel, hatte mir gestern auch mal den Test von Computerbase durchgelesen, ich finde das klingt alles ziemlich gut, ich vermute nach dem Desaster der 480 gab es einige "Lessons learned"-Meetings bei Nvidia, daher diesmal gottseidank auch kein weiterer paper launch. Ich hatte ja schon länger auf eine überarbeitete Version der 480 gehofft, ob diese nun 485 heißt, oder aus Druck durch AMD nun 580 heißt, ist mir eigentlich egal, die Zeiten wo jede neue Generation auch neue Features unterstützt hat, ist eh schon lange vorbei.
Mir kommt die Karte jedenfalls gelegen, ich wollte Fallout3 demnächst endlich mal mit allen HD-Mods weiterspielen.
Für 30-Zoll Monitore (2560x1600) scheint mir die Performance aber noch nicht ausreichend.
EDIT: Eine Frage noch, weiss jemand ob die Karte neben DVI auch einen Displayport hat?
Ich meine zwei DVI und einen HDMI (Edit: Mini-HDMI mit 1.4a Standard)
So ist es. Warum das Referenzdesign auf Displayport verzichtet ist mir allerdings schleierhaft. Und mittlerweile fände ich Multimonitorbetrieb für drei Bildschirme wie bei AMD schon seit einem Jahr geboten auch angebracht.
Liegt vermutlich daran das wie von dir schon erwähnt, der Chip von Fermi 100 auf 110 nicht wirklich verändert wurde, aber angebracht wäre es.
Followup-Frage dazu, früher musste man um einen 30''-Monitor anschließen zu können 2 Ports verbinden, mit Displayport sollte dies wegfallen, ist dies bei aktuellen DVI-Achschlüssen noch notwendig, oder liefern die mittlerweile die nötige Bandbreite?
Und Danke für die Antworten.
DVI-D in der Dual-Link-Version packt auch 30" und entsprechende Auflösungen.