Die Seite Czechgamer hat erste Benchmarks zur neuen ATI Radeon HD5870 ins Netz gestellt, die wir euch natürlich nicht vorenthalten wollen. Abhängig von Spiel und gewählter Auflösung ist ATIs neue DX11-Karte bis zu 95% schneller oder auch bis zu 25% langsamer als Nvidias GeForce GTX295, was angesichts der Tatsache, dass die GTX295 als Dual-GPU Karte zwei GT200 auf einer Platine verbaut hat, doch recht beeindruckend ist. Auffällig ist das Leistungsplus der HD5870 in der sehr hohen Auflösung von 2560x1600 mit aktivierten Qualitätseinstellungen.
Spiel | Auflösung | ATI Radeon HD5870 | Nvidia GeForce GTX295 |
Battleforge | 1920x1200 | 61.7 | 59.8 |
2560x1600 | 44.3 | 40.5 | |
1920x1200 4xAA 8xAF | 47.0 | 50.8 | |
2560x1600 4xAA 8xAF | 32.7 | Crash | |
Company of Heroes | 1920x1200 | 131.7 | 149.5 |
2560x1600 | 98.2 | 108.6 | |
1920x1200 8xAA 16xAF | 103.4 | 112.7 | |
2560x1600 8xAA 16xAF | 71.0 | 65.4 | |
Call of Duty: WaW | 1920x1200 4xAA 8xAF | 112.0 | 144.2 |
2560x1600 4xAA 8xAF | 75.7 | 103.0 | |
1920x1200 8xAA 16xAF | 100.7 | 120.8 | |
2560x1600 8xAA 15xAF | 68.8 | 61.3 | |
Crysis Warhead | 1920x1200 | 51.5 | 53.6 |
2560x1600 | 35.0 | 44.6 | |
1680x1050 4xAA 8xAF | 51.0 | 52.4 | |
1920x1200 4xAA 8xAF | 43.6 | 48.8 | |
Devil May Cry 4 | 1920x1200 4xAA 8xAF | 99.2 | 139.3 |
2560x1600 4xAA 8xAF | 68.7 | 90.7 | |
1920x1200 8xAA 16xAF | 91.3 | 99.5 | |
2560x1600 8xAA 16xAF | 63.2 | 46.0 | |
Far Cry 2 | 1680x1050 | 94.3 | 95.2 |
1920x1200 | 85.2 | 89.2 | |
1680x1050 8xAA | 60.0 | 74.2 | |
1920x1200 8xAA | 51.8 | 63.9 | |
Left 4 Dead | 1920x1200 | 179.9 | 180.1 |
2560x1600 | 140.8 | 156.4 | |
1920x1200 8xAA 16xAF | 152.3 | 157.6 | |
2560x1600 8xAA 16xAF | 102.3 | 101.4 | |
Prey | 1920x1200 4xAA 8xAF | 217.4 | 225.9 |
2560x1600 4xAA 8xAF | 150.3 | 147.3 | |
1920x1200 8xAA 16xAF | 194.7 | 150.4 | |
2560x1600 8xAA 16xAF | 131.6 | 95.6 | |
Stalker: Clear Sky | 1920x1200 | 38.4 | 40.5 |
2560x1600 | 28.3 | 28.3 | |
1680x1050 4xAA 8xAF | 28.7 | 28.2 | |
1920x1200 4xAA 9xAF | 24.2 | 22.3 | |
Stormrise | 1920x1200 4xAA 8xAF | 60.6 | 49.2 |
2560x1600 4xAA 8xAF | 41.8 | 31.7 | |
1920x1200 8xAA 16xAF | 58.1 | 45.1 | |
2560x1600 8xAA 16xAF | 40.1 | 28.6 | |
Assault on Dark Athena | 1920x1200 SSAO | 76.2 | 81.6 |
2560x1600 SSAO | 44.7 | 48.9 | |
1920x1200 8xAA 16xAF | 71.3 | 63.9 | |
2560x1600 8xAA 16xAF | 45.8 | 26.6 | |
Unigine Tropics | 1920x1200 4xAA 8xAF | 53.8 | 34.7 |
2560x1600 4xAA 8xAF | 34.5 | 19.6 | |
1680x1050 8xAA 16xAF | 54.7 | 30.6 | |
2560x1600 8xAA 16xAF | 45.9 | 23.8 | |
Unreal Tournament 3 | 1680x1050 4xAA 8xAF | 106.6 | 143.6 |
1920x1200 4xAA 8xAF | 91.7 | 132.4 | |
1680x1050 8xAA 16xAF | 99.6 | 88.8 | |
1920x1200 8xAA 16xAF | 82.3 | 67.1 | |
Wolfenstein | 1920x1200 4xAA 8xAF | 104.8 | 126.9 |
2560x1600 4xAA 8xAF | 67.6 | 78.7 | |
1920x1200 8xAA 16xAF | 97.9 | 97.3 | |
2560x1600 8xAA 16xAF | 63.6 | 53.1 |
Hier die Werte des 3D-Benchmarks 3DMark Vantage in der Extreme-Einstellung:
3DMark Vantage, Extreme | |
HD5870 | 8171 |
HD4890 | 5107 |
GTX285 | 5813 |
HD4870X2 | 7034 |
Und weitere Vergleichswerte, die mit dem Spiel Hawx durchgeführt wurden:
Hawx DX10.1, 1920x1200, 4xAA | |
HD5870 | 109 |
HD4890 | 67 |
GTX285 | 54 |
HD4870X2 | 92 |
Die Seite Hardware-Infos will zudem die Angaben zur Leistungsaufnahme seitens ATI in Erfahrung gebracht haben, die wie folgt aussehen sollen:
HD5850 | HD5870 | |
Idle Board Power | 27 Watt | 27 Watt |
Max Chip Power | 110 Watt | 110 Watt |
Max Board Power | 170 Watt | 188 Watt |
Mach beeil dich ich will das lesen !!!
Du bist einfach zu langsam Stefan mensch !!
Die Benchmarktabellen sind nur als sch**** Grafik im Netz, das muss ich erst mühsam abtippen.
Dafür gibts Punkt :D:D
Danke!
Stefan du bist immer so bescheiden :D
Fazit: Die Karte bringt vor allem in hohen Auflösungen mit Antialiasing & Anisotroper Filterung Vorteile. Crysis bleibt ein Nvidia Spiel.
Ich bin zwar kein ATI Besitzer meine aber das es eine "Catalyst 8.66"-Version schon lange nicht mehr gibt, die waren doch auch irgendwo knapp unter 100, oder?
Mit Punkt dazwischen und nach Monaten und Jahren sortiert. 9.9 ist aktuell (September 2009). Warum zur Hölle eine über ein Jahr alte Treiberversion (mit Beta-whatever) die neuen Karten anspricht ist mir allerdings ein Rätsel.
Ansonsten sollte vielleicht noch erwähnt werden - die GTX295 ist eine Dual-GPU-Karte, also quasi ein SLI-Gespann auf einer Platine. ATIs neue Single-Chip-Karte schlägt also (teilweise sehr sehr locker) die bislang schnellste Dual-Chip-Karte. DAS ist beeindruckend wenn die Zahlen stimmen. Denn von der 5870 kommt auch noch ein X2-Modell ;) ..
Das mit der Treiberversion stand so bei expreview.com, die Seite mit dem Benchmark hatte keine Angabe dazu gemacht. Das mit der Dual-Karte füge ich noch ein.
Um auf expreview.com etwas lesen zu können ist mein *asiatische Sprache einfügen* zu schlecht, sorry ;) ..
Die haben auch eine englischsprachige Version der Seite: en.expreview.com
Ich habe die Anmerkung erstmal rausgenommen.
Zum Energiebedarf : Wenn die Infos von hardware-info passen, dann scheint Powerplay endlich zu funktionieren. Mit diesen Werten liegen die beiden neuen Topkarten auf dem Niveau der aktuellen Geforcemodelle, was den Idleverbrauch angeht. Sehr löblich! Und mehr als die doppelte Leistung bei effektiv gleich gebliebenem Energiebedarf unter Last zu erreichen ist auch recht beeindruckend. Hoffen wir, dass die Daten sich bewahrheiten. Ich schreibe ja gerade auch für GG an einem Bericht über die neue Serie und DX11 im Besonderen - will aber mit der Veröffentlichung lieber warten, bis die Daten am 22/23. bestätigt sind. News sind für Gerüchte besser geeignet als Artikel :) ..
Hohe Auflösungen scheinen den HD58x0-Karten ja zu liegen. Sinnvoll, wenn man die Eyefinitiy-Funktion und drei große Monitore nutzt - wenn sogar Dirt2 in DX11 bei gigantischen Auflösungen von 7680x3200 flüssig laufen soll (ok, mit zwei 5870, dennoch beeindruckend). Interessant ist die Tatsache auch, weil die an sich nicht unwichtige Speicherbandbreite nicht sonderlich stark angehoben wurde.
Sehr schöne Informationen.
Ich freu' mich auf die neuen Karten - die sollen sich nur beeilen, ich brauche einen neuen PC und will keine DX10 Karte mehr kaufen, jetzt, so kurz vor DX11 ;)
So, wie die Leistungen aussehen, wird man mit einer dieser Karten eine ganze Weile auskommen, und das zu - soweit ich das bisher mitbekommen habe - vernünftigen Preisen.
Wenn du frustresistent bist - ruf bei einem Hardwareladen deines Vertrauens an und bestelle dir eine der Karten vor. Am 23.09. werden die Dinger der Öffentlichkeit vorgestellt und sollen dann auch verfügbar sein. Erfahrungsgemäß sind die Dinger dann aber erst einmal ausverkauft, daher die Vorbestellung. Frustresistenz? Klar, weil die Karten in den ersten zwei, drei Monaten wahrscheinlich um bis zu 50% im Preis fallen werden und Erstkäufer sich *immer* ärgern. Ich grummel ja auch noch vor mich hin, weil ich damals eine 8800GT für 250 Euro gekauft habe - ein viertel Jahr später war sie für 120 zu haben.
brauch kein DX 11, das 10er hat sich auch nicht viel gebracht
Sollte man nicht miteinander vergleichen. DX10 war unter anderem erfolglos, weil kaum jemand Vista zu Beginn haben wollte. Dazu kam, dass die Entwicklung einen Renderpfad für DX10 und einen für ältere Versionen berücksichtigen musste. Das ist mit DX11 besser geworden, da können einige Funktionen mit geringerer Qualität sogar auf DX9-Karten berechnet werden. Dazu kommt, dass Win7 offenbar deutlich mehr Leute anspricht als Vista - und dass DX11 sowohl für Vista als auch Seven herauskommen wird.
Und ganz unabhängig von DX11 werden die neuen Karten einfach mal nur verflixt schnell.
Also ich bin mit DX9 immernoch zufrieden. Die "tolle" Beleuchtung von DX10 ist auch nicht in jedem Spiel schick gemacht und so spiele ich vieles EXTRA mit DX9 obwolh mein Rechner ohne probs DX10 kann.
Ein Problem bei DX10 war eben die schon erwähnte Extrawurst "DX10-Renderpfad". Viele Spieleentwickler haben sich dann auch wenig Arbeit gemacht und schnell mal was in DX10 hinprogrammiert. Ergebnis : Das Spiel sah nicht besser aus, lief aber deutlich langsamer. Dabei wäre deutlich mehr drin gewesen, wenns nur ordentlich eingesetzt worden wäre. Naja. DX10, eine Geschichte voller Missverständnisse ;) .
Allerdings sollte man das nicht auf DX11 ummünzen, das bringt einige Dinge mit sich, die auf wirklich spürbare Vorteile bergen.
Wow.. geile zahlen!
aber warum ist battleforge gecrashed?