ATI: "Hemlock" alias HD5970 am 19. November?

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

29. Oktober 2009 - 23:16 — vor 14 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Nach dem guten Start der ersten vier HD5000-Modelle soll schon bald ein weiteres Modell der Serie im Handel auftauchen. Unter dem Namen HD5970 wird wohl bereits am 19. November 2009 die bislang schnellste Grafikkarte der Welt erscheinen. Bei der HD5970 wird es sich um ein Dual-GPU-Modell auf Basis der HD5870 handeln. Die bisher schnellste Karte, nVidias GTX295, welche auch auf zwei GPUs basiert, wird damit ziemlich sicher nur noch schwer abgeschlagen an zweiter Stelle verbleiben. Bereits eine HD5870 kommt der GTX295 in einigen Disziplinen bedrohlich nahe.

Geplant waren diese Dual-GPU-Karten schon länger, vor einiger Zeit sickerte der endgültige Name der finalen Karten durch. Später folgen wahrscheinlich auch noch eine niedriger getaktete oder in den Shadereinheiten beschnittene Version namens HD5950. 

Viel gemunkelt wurde indes über den Energiebedarf der HD5970. Von über 300 Watt Leistungsaufnahme und damit einhergehender Nutzung von zwei 8-Pin-PCIe-Stromanschlüssen war bereits die Rede. Erste Produktbilder der knapp 30cm in der Länge messenden HD5970 zeigen allerdings wie bei der Vorgängerkarte HD4870X2 nur einen 6-poligen und einen 8-poligen PCIe-Stromstecker. Rein rechnerisch ist so eine Leistungsaufnahme von maximal 300 Watt realisierbar (75 Watt vom PCIe-Steckplatz, 75 Watt durch den 6-Pin-Stecker und 150 Watt durch den 8-Pin-Stecker), die HD4870X2 benötigte unter Volllast bereits 280 Watt. ATI wird also recht stark an den Taktfrequenzen gedreht haben müssen, um den Verbrauch der Karte in realistische Bahnen zu lenken. Fest steht jedenfalls, dass diese Karten unter Last nicht sehr leise agieren und auch preislich eher im Spitzenbereich angesiedelt werden.

Da es momentan nicht sonderlich gut um die Verfügbarkeit der Grafikchips für die HD5870 und HD5850 bestellt ist, teilweise sogar die Preise für entsprechende Karten wieder steigen, wird wohl auch die HD5970 in eher geringen Stückzahlen auf den Markt kommen. Wie es dann im Konkurrenzkampf mit nVidia und deren auch für November angekündigten GT300 ("Fermi") Grafikkarten aussehen wird, steht noch in den Sternen. Aktuell ist es noch unwahrscheinlich, dass nVidia noch in diesem Jahr größere Mengen Fermi-GPUs fertigen können wird. Eines steht aber fest: es bleibt spannend im Kampf rot gegen grün.

Stefan1904 30 Pro-Gamer - 128595 - 29. Oktober 2009 - 23:26 #

Davon 4 mittels Crossfire in den Rechner, dann lohnen sich auch die >1000 Watt Netzteile endlich mal ;) Ist wohl wieder nur ein Prestige-Objekt, Gewinne werden sie mit dem Teil wohl kaum einfahren.

Mir würde eine normale HD5870 völlig ausreichen für FullHD-Auflösung.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 29. Oktober 2009 - 23:29 #

Naja, wenn sie Geld verdienen wollen, dann am besten mit den kleinen Karten UND mit dieser. 50 oder 100 Euro mehr stören die Freak beim Kauf einer solchen Karte eh nicht. Sinn ergibt eine solche Karte natürlich eher weniger, zumal bei Multi-GPU auch immer noch das Problem der Mikroruckler existiert. Aber es werden sich Käufer finden. Gibt ja auch Leute, die den Gamestar-PC kaufen weil da ne GTX295 drin steckt ;) ..

Stefan1904 30 Pro-Gamer - 128595 - 29. Oktober 2009 - 23:47 #

19. November 2010 wäre doch ein wenig spät gewesen, habe es mal auf dieses Jahr geändert ;)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 30. Oktober 2009 - 0:13 #

Irgendwie ist mein innerer Kalender falsch eingestellt ;) .. Ich denke tatsächlich schon seit Monaten, es wäre 2010. Warum auch immer.

Rondrer (unregistriert) 30. Oktober 2009 - 0:33 #

jetzt lohnt es sich auch nichtmehr sich was anderes einzuprägen ;) Bis man sich umgestellt hat, ist es dann tatsächlich 2010 :D

Dennis Ziesecke 21 AAA-Gamer - 30866 - 30. Oktober 2009 - 0:41 #

Nee, dann ist ja 2011! Ist übrigens bei der Arbeit sehr peinlich, wenn man Reservierungen für den kommenden Samstag schreibt und da dann 2010 im Beleg steht. Dummerweise fehlen mir beim Job die netten Leute, die solche Fehler flink beheben. Danke übrigens dafür.

Ansonsten - und um einen Bogen zum Thema schlagen zu können - auch 2010 oder 2011 würde ich mir keine Dual-GPU-Lösung kaufen. Will ja, dass mein Kind weiterschlafen kann, wenn der PC an ist ("Papa, draussen ist ein Orkan!") und ich habe auch etwas angst vor einem durchdrehenden Stromzähler ;) .

Earl iGrey 16 Übertalent - 5093 - 30. Oktober 2009 - 0:11 #

Ha, Wunderbar! Wenn mein nächstes Lieblingsspiel erscheint, wird diese Karte schon wieder schön günstig zu haben sein. ;)

ganga 20 Gold-Gamer - 22830 - 30. Oktober 2009 - 11:09 #

Duke Nukem?