AMD HD6990 erschienen

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 29503 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreicht

8. März 2011 - 14:18

Besitzer von 30-Zoll-Monitoren aufgepasst - AMD tut etwas für Freunde hoher Auflösungen. Auf der CeBIT in Hannover konnten bereits funktionsfähige Karten bewundert werden, seit dem heutigen Tag startet der Luxus-Beschleuniger auch offiziell.

Wir hatten im Messe-Report zur CeBIT 2011 bereits vermutet, dass AMD zwei vollwertige Cayman-Grafikchips einsetzen wird. Diese Vermutung hat sich bestätigt, AMD verzichtet darauf, die Shadereinheiten zu beschneiden, so dass tatsächlich 3072 Recheneinheiten (2x 384 4D-Shadereinheiten) zum Einsatz kommen. Im Gegensatz zur Radeon HD6970 deren GPU mit 880 MHz angesprochen wird, arbeitet die HD6990 mit etwas genügsameren 830 MHz. Der insgesamt vier Gigabyte große GDDR5-Speicher taktet mit 1250 MHz (effektiv 2500 MHz) auf dem Niveau einer HD6950.

Eine Besonderheit hat sich AMD einfallen lassen - die HD6990 soll nicht nur schnell und beeindruckend sein sondern awesome. AMDs Marketing schreibt allerdings "AUSUM", was für "Antilles Unlocking Switch for Uber Mode" stehen soll. Mit Antilles ist die HD6990 gemeint - der Uber-Modus lässt sich per Schalter auf der Karte aktivieren. Dabei wird von einem BIOS mit den oben genannten Taktraten auf ein OC-BIOS umgeschaltet, der Uber-Takt liegt dann bei 880 MHz für die Grafikchips, der Speichertakt wird nicht weiter angehoben. Um die Frequenzerhöhung zu realisieren muss AMD im OC-Modus die GPU-Spannung von 1,12 Volt auf 1,175 Volt erhöhen. Damit einher geht auch eine Steigerung der Energieaufnahme.

Energieaufnahme, ein leidiges Thema. Wir hatten angesichts der zwei 8-Pin-Stromstecker bereits eine maximale Energieaufnahme von 375 Watt vorausgesehen. Und tatsächlich liegt die "Typical Game Power", also die laut AMD maximale Energieaufnahme beim Spielen aufwändiger Titel, mit dem Standard-BIOS bei 350 Watt. Wird hingegen das OC-BIOS aktiviert, zieht die HD6990 beeindruckende 415 Watt aus dem Netzteil. Die Typical Game Power stellt allerdings nicht das absolute Maximum dar - laufen neben einem Spiel noch weitere 3D-Anwendungen wie der Furmark kann die Energieaufnahme auf 375 Watt (Standard-BIOS) respektive 450 Watt (Uber-Modus) ansteigen. Mit einer Energieaufnahme von mehr als 375 Watt verlässt AMD allerdings die Spezifikationen von PCI-Express, ganz nebenbei verliert der Anwender beim Aktivieren des OC-BIOS auch den Garantieanspruch auf die Karte.

Ein gutes Netzteil ist für den Betrieb einer HD6990 also Pflicht. Dafür stimmt allerdings auch die Leistung - zumindest wenn der Monitor ausreichend hoch auflöst. Im Test der Kollegen von computerbase.de konnte sich die HD6990 in 1920x1080 Bildpunkten mit 4x Anti-Aliasing und 16x anisotropen Filter mit 61% Vorsprung stark von einer einzelnen HD6970 absetzen. Auch Nvidias GTX580 wird in dieser Einstellung um 37% geschlagen. Der HD6990 liegen aber auch noch höhere Auflösungen: In 2560x1600 mit qualitätsverbessernden Optionen steigt der Vorsprung auf 71% (gegenüber HD6970) respektive 48% (GTX580). Noch besser sieht der Vorsprung mit achtfacher Kantenglättung aus, Nvidias GTX580 wird so mit bis zu 65% Vorsprung deklassiert. Der OC-Modus hat übrigens kaum Einfluss auf die Frameraten, weshalb ein Umlegen des Uber-Schalters nicht zu empfehlen ist.

Der HD6990 liegen - sehr passend - drei aktive Displayport-zu-DVI-Adapter bei mit denen sich Multimonitor-Konfigurationen mit drei Bildschirmen erstellen lassen. Eine Messeimpression mit drei Bildschirmen und dem Rennspiel Dirt 3 von der CeBIT findet sich als kurzer Videoclip unter dieser News.

Die brachiale Leistung fordert aber nicht nur in der Energieaufnahme ihren Tribut. Wie bereits von uns vermutet eignet sich die HD6990 absolut nicht für Silent-Computer. Unter Volllast im OC-Modus werden im Test von Computerbase bis zu 73 Dezibel erreicht - Negativrekord im Grafikkartenmarkt und selbst mit aufgesetzten Kopfhörern störend laut. Der Standard-Modus provoziert den kleinen 75mm-Radiallüfter nicht so stark, dennoch sind die unter voller Last erreichten 66,5 Dezibel nicht akzeptabel. Und selbst im Ruhemodus ohne 3D-Last röhrt der Lüfter mit 47 Dezibel auch aus geschlossenen Systemen gut hörbar - erneuter Negativrekord.

Kauftipp? Awesome? Uber-Grafikkarte? Nein, weder noch. Die Leistung der HD6990 ist zwar auf extrem hohem Niveau, diese Rechenleistung erkauft sich AMD aber mit einer absolut nicht akzeptablen Lautstärke, viel zu hohem Energiebedarf und einem Preis von über 600 Euro. Selbst zwei HD6970 wären in der Anschaffung preiswerter und nicht lauter im Betrieb. Nur wer sich jüngst Samsungs Mega-Monitor MD230x6 angeschafft hat darf kurz über die Anschaffung einer HD6990 nachdenken. Für die schallisolierenden Kopfhörer ist dann sicherlich auch noch Geld übrig.

Video:

Nesaija 13 Koop-Gamer - 1664 - 8. März 2011 - 11:40 #

Laut den meisten Tests hinkt sie aber diversen Karten Kombis sehr hinterher wegen eines Treiber Problems. Auch leider sie wohl unter extrem hohen Strom problemen und ist nur 5% schneller als die geforce gtx 580 :9 naja wers braucht und zuviel geld hat greift wohl trotzdem zu ^^

mik 12 Trollwächter - 938 - 8. März 2011 - 11:49 #

Ich weiß zwar nicht wie du genau auf 5% kommst, aber das stimmt einfach nicht!

http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6990/22/#abschnitt_leistungsurteil

Nesaija 13 Koop-Gamer - 1664 - 8. März 2011 - 11:58 #

bin irgendwie mit dem gamestar test und den von pcgameshardware durcheinander gekommen :8

bolle 17 Shapeshifter - 7613 - 8. März 2011 - 12:35 #

dann lies ab jetzt auf Computerbase, die haben mehr Ahnung. (Bei der Gamestar arbeiten ja sogar GGlinge ;) )

Dennis Ziesecke Freier Redakteur - 29503 - 8. März 2011 - 12:36 #

Pah! :D

Nesaija 13 Koop-Gamer - 1664 - 8. März 2011 - 12:52 #

normal les ich nur auf pcgameshardware und tomshardware :( gamestar ist irgendwie sonne alte sünde so alle paar jahre schaue ich doch mal auf der seite nach aber seit dem redesign mag ich sie erst recht nicht mehr

Dennis Ziesecke Freier Redakteur - 29503 - 8. März 2011 - 11:51 #

Man kanns auch schlechtreden - 5% hinkt die Karte der 580 wohl nur in eher unrealistischen Aufösungen (1280x1024?) hinterher. Wer eine solche Monsterkarte kauft (wobei, WER soll das sein?) wird wohl eher mit drei Monitoren auf 5760x1080 oder gar mit sechs Bildschirmen auf 5760x2160 zocken. Oder zumindest mit einem hochauflösenden 30-Zoller. Und wer eine solche Karte kauft, der schaltet auch AA und AF ein, Maximum versteht sich, sonst könnte man auch bei der GTX460 oder HD6850 bleiben. Mit hohen Auflösungen und Qualitätseinstellungen steigt der Leistungsgewinn gegenüber der 580 allerdings enorm.

Trotzdem, wirklich sinnvoll ist die 6990 natürlich trotzdem nicht.

pel.Z 16 Übertalent - 4852 - 8. März 2011 - 12:16 #

Was ist das denn bitte für ein Blödsinn? Die bauen einen Schalter ein, um die Karte in einen Overclocked Zustand zu versetzen, aber sobald man den betätigt erlischt die Garantie der Karte?! Bwahaha... was es alles gibt! *Kopfschüttel*

Novachen 18 Doppel-Voter - 12752 - 8. März 2011 - 13:52 #

Wer ist überhaupt so wahnsinnig und übertaktet so eine Karte überhaupt noch? Momentan gibt es doch nichtmal nen Prozessor der die auf normale Geschwindigkeit schnell genug füttert. Und wenn es sie dann gibt, dann ist die Karte eh schon wieder so langsam, dass auch der Overclock Zustand nichts mehr bringt *g*

Jadiger 16 Übertalent - 4890 - 8. März 2011 - 20:33 #

Das Teil ist doch nur zum 3DMark Punkte pushen gut und da wird sie Übertaktet aber nicht mit dem Schalter. Weil sie ja nur einen lauf auspucken muss. Also ist der Schalter ein netter gag aber mehr auch nicht. Aber ich kann schon sagen eine GTX470 ist schon laut und manche Spiele schalt ich extra Vsync ein damit das Teil nicht zum Staubsauger mutiert. Und sowas nervt echt wenn es so laut ist Strom kosten werden einfach überbewertet alle wollen eine Top Benmark Karte aber sie muss Kühl(Leise) und Stromsparend sein. Sowas ist wirklich schwer hinzubekommen besonders wenn man wie AMD jetzt eine GTX580 schlagen muss. Aber bestimmt kommt bald eine Nvidia GX2 Karte und die wird dann noch lauter!
Hatte auch mal Crossfire und ich kann nur sagen nur zum Benmarken sonst für nix gut ständig wenn neue Spiele kommen probleme mit Treiber.

Und wenn dann 2mal eine Karte so hast wenigstens wenns Probleme gibt die option auf Singel umzuschalten.

Florian Pfeffer Freier Redakteur - 25273 - 8. März 2011 - 12:25 #

Wow, ein Uber-Stromfresser...

mulli (unregistriert) 8. März 2011 - 13:16 #

Entsprechen 70db nicht in etwa einer stark befahrenen Hauptstraße?

Wuhu, eine Hauptstraße für PCs...

Gerjet Betker 19 Megatalent - 13638 - 8. März 2011 - 13:55 #

70 dB sind in etwa die Lautstärke in einem Großraumbüro, wenn alle gleichzeitig so tun, als würden sie arbeiten. 15 Dezibel mehr und ein Gehörschutz wäre gesetzlich vorgeschrieben.

Dennis Ziesecke Freier Redakteur - 29503 - 8. März 2011 - 14:34 #

Wobei man dazu erwähnen sollte, dass 10 Dezibel mehr einer Verdopplung des Schalldrucks entspricht. Wirklich gut vorstellbar sind Dezibel eher nicht, da nur wenige Leute diese nicht unwichtige Information kennen ;) .

Crizzo 18 Doppel-Voter - P - 11025 - 8. März 2011 - 14:38 #

Im Gegensatz zu Sone ist Dezibel nämlich nicht linear, sondern exponentiell: http://de.wikipedia.org/w/index.php?title=Datei:Exp_e.svg&filetimestamp=20100822165643 Sprich ein wenig weiter nach rechts auf der dB-Skala, wie weiter nach oben (=lauter). Ergo 1 Sone = halb so laut wie 2 Sone, aber nicht 20dB doppelt so laut wie 10dB.
So, genug Wissen für 30sec. :D

Rondrer (unregistriert) 8. März 2011 - 14:56 #

"aber nicht 20dB doppelt so laut wie 10dB."
Schlechtes Beispiel, anhand der Faustformel "10dB Unterschied doppelt/halb so laut" stimmt das in dem Fall genau :D

Edit: Hmpf, Antwort-Fail

Heretic (unregistriert) 8. März 2011 - 17:31 #

Wie immer völliger Unsinn so eine Karte!
Zumal es kein Spiel gibt (und so schnell geben wird) für das man so eine Karte braucht, solange man unter "normalen" Umständen spielt. Selbst Crysis 2 wird ja eher zurückhaltend mit den Hardware-Anforderungen sein, die Demo lief jedenfalls auf meiner HD5850 pfeilschnell.

Man bekommt auch eine anständige Karte für 300€. Eine, die auch für alle Spiele ausreicht, obendrein aber auch noch leiser und deutlich stromsparender ist.

Jadiger 16 Übertalent - 4890 - 8. März 2011 - 20:41 #

Ich kann dir sagen für was sowas gut ist zwar nicht die weil sie eindeutig zulaut ist aber SLI brachen schon ein paar Games ganz neu Rift wennst alles auf Maximum stellst und ein Gefühlter 100 Spieler Monster abwehr Raid unterwegs ist da brachst dann schon min 580GTX sonst knacken die FPS mal ganz schnell in den einstelligen berreich.
Und von Supersampling dort brauch ich garnicht anfangen weil dann brachst 100% Sli!
Crisis2 was ist das den für ein Beispiel das ist fast ein 100% Konsolen Port. Da ist ja Metro umlängen Grafisch besser und Hardwarefresser ist es Wohl da kannst nicht mit einer 4890 auf High Spielen. Sowie bei den meisten andern Games die rauskommen.

rAmbAzAmbA 17 Shapeshifter - 7388 - 8. März 2011 - 21:28 #

Tut mir Leid, aber ich versteh irgendwie deine Kommentare nicht. Kannst du das bitte etwas ordnen?

Heretic (unregistriert) 9. März 2011 - 12:52 #

Was hast du denn gemacht während du das geschrieben hast? ;)

Eigentlich hat Metro 2033 soger die höchsten Anforderungen derzeit (soweit mir bekannt ist). Die Performance auf dem PC ist echt grausam, da ist Crysis 1 fast schon genügsam dagegen. Es sieht natürlich auch mega aus aber die Engine leistet bei weitem nicht soviel wie z.B. die CryEngine 1.

volcatius (unregistriert) 8. März 2011 - 20:17 #

Die Aufrüstzeiten im 6-Monats-Takt sind ja zum Glück vorbei.

Wer braucht aktuell so ein Leistungs- und Lautstärke-Monster?

Maisto 10 Kommunikator - 475 - 8. März 2011 - 21:29 #

Warts ab. Der DX11 Patch für Crymeariver-sis 2 (sollte er denn kommen) wird zwei dieser Grafikkarten voraussetzen um einigermaßen flüssig zu laufen ;)

ciao

Dennis Ziesecke Freier Redakteur - 29503 - 8. März 2011 - 21:28 #

Dein Stromanbieter vielleicht?

Inno 12 Trollwächter - 1167 - 9. März 2011 - 0:16 #

Wenn sie noch vibriert und über USB angeschlossen werden kann, nehm ich sie:p
Spaß beiseite: kann es sein das die neuen Grafikkarten wirklich nur noch für Multimonitoring konzipiert sind? Ich habe immernoch meine HD4780 drin und kann wirklich alles ohne Probleme spielen. Und die war vor 2 Jahren schon eher Mittelklasse. Nicht das ich mich beschweren würde..

Dennis Ziesecke Freier Redakteur - 29503 - 9. März 2011 - 0:19 #

Bei NV gibts noch 3D, das hat AMD ja nie so recht kapiert (3D-Funktionen in Treiber integrieren ist schon schlau, kostenpflichtige Zusatzprogramme sind dämlich), frisst ja auch gut Leistung.

Aber ehrlich - wenn eines der hübschesten und Leistungsfordernsten Spiele aus dem Jahre 2007 ist sagt das doch alle oder? Die Mehrleistung aktueller Topkarten braucht man mittlerweile nur noch *so* selten. Schade eigentlich, ich weiß was technisch machbar ist und würde schon gerne Spiele mit entsprechender Grafik sehen.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit