DirectX 11 in Aktion

ATIs HD5850 und HD5870 im Überblick Report

Windows 7 und Windows Vista werden DX11 und damit aufregende neue Grafikeffekte unterstützen. ATI präsentiert jetzt als erster Hersteller fertige Grafikkarten mit den dazugehörigen neuen Funktionen. Wir stellen euch die neuen Radeons ausführlich vor.
Dennis Ziesecke 8. September 2009 - 12:02 — vor 7 Jahren aktualisiert
PC
Bereits am 10.9.2009 konnten Mitarbeiter von AMD/ATI den neugierig angereisten Pressevertretern die lang erwarteten neuen DX11-Grafikkarten vorführen. Natürlich wurden auch Testmuster verteilt, welche in aller Ausführlichkeit getestet werden konnten. Nur Ergebnisse durften vorerst nicht veröffentlicht werden, jeder Teilnehmer der Presseveranstaltung musste ein sogenanntes NDA (non-disclosure-agreement, eine Geheimhaltungserklärung) unterzeichnen. Dieses lief am 23.9.2009 aus, so dass jetzt endlich nicht nur Gerüchte sondern wirkliche Daten für einen ausführlichen Bericht über die neue Grafikkartengeneration zur Verfügung stehen. Da bei einem stark technischem Thema natürlich viele Fachbegriffe fallen, werden wir die wichtigsten Begriffe in Infokästen genauer erläutern.

Immergrün
Anschlussvielfalt: HDMI, DisplayPort und 2x DVI, drei der vier Anschlüsse sind gleichzeitig nutzbar.

Die unter dem Namen "Evergreen" von ATI vorgestellte neue Grafikkartenserie wird für den Endnutzer das gewohnte Namensschema HD 5xx0 beibehalten. Die beiden Platzhalter stehen hier stellvertretend  für die Leistungseinstufungen, je kleiner die Ziffer, desto schwächer die Karte. Zuerst werden die beiden leistungsstarken Modelle HD5850 und HD5870 im Handel erhältlich sein, noch vor Weihnachten soll mit der HD5870x2 eine Dual-GPU-Karte folgen.  

Bereits für den Oktober ist die preislich sehr interessante Mittelklasse in Form der HD5750 und HD5770 angekündigt. In der Zukunft folgt dann noch die Einsteigerserie namens HD5350 mit vergleichsweise kleiner Grafikleistung, aber allen anderen Funktionen wie Eyefinity und DX11.

Evolution statt Revolution

Intern sind die neuen Modelle keine komplette Neuentwicklung, sondern basieren auf den beliebten Vorgängerversionen (RV770 - HD4850/4870). Allerdings wurden die Karten für DirectX11 fit gemacht. Effekte wie Tesselation oder die für KI und Physikeffekte nutzbaren Compute-Shader sind integriert und alle wichtigen Funktionseinheiten stark erweitert worden. Die folgende Tabelle zeigt im Vergleich die Daten der letzten und der kommenden Generation : 


Bezeichnung HD2600XT  HD3870 HD4850 HD4870 HD5850 HD5870
Chip RV630 RV670 RV770 RV770 CypressLE CypressXT
Streamprozessoren 120 320 800 800 1440 1600
Chiptakt 800 MHz 775 MHz 625 MHz 750 MHz 725 MHz 850 MHz
Speichertakt 700/1100 MHz 1125 MHz 993 MHz 1800 MHz 2000 MHz 2400 MHz
ROPs 4 16 16 16 32 32
TMUs 8 16 40 40 72 80
Speichertyp GDDR3/4 GDDR4 GDDR3 GDDR5 GDDR5 GDDR5
Fertigung 65 nm 55 nm 55 nm 55 nm 40 nm 40 nm
DirectX-Version 10.0 10.1 10.1 10.1 11 11

Schon mit dem Sprung von der HD3870 zur HD4850 hat ATI einige Funktionseinheiten stark erweitert, um die Leistung zu erhöhen. So wurden aus 320 Streamprozessoren gleich 800, allerdings stieg die Anzahl der ROPs (Raster Operations Processors) nicht an, während die TMUs (Texture Mapping Units) sich von 16 auf 40 vermehrten. Die Speicherbandbreite sank sogar etwas, die 4850 war preiswerter herzustellen und wurde ein großer Erfolg für AMD. Denn die beschriebenen Verbesserungen führten zu mehr als doppelt soviel Leistung, während kleinere interne Änderungen weniger Leistungsverlust bei der Nutzung von Kantenglättung ermöglichten.

Bei der HD5870 wurde jetzt wieder fleißig erweitert, alle wichtigen Funktionseinheiten sind verdoppelt worden. Nur die Speichergeschwindigkeit erhöht sich kaum. Das bei der HD5870 eingesetzte GDDR5-RAM ist nur geringfügig höher getaktet als bei der HD4870. Allerdings wird auch das preiswertere Modell HD5850 den schnellen GDDR5-Speicher nutzen können; bisher war das den Topmodellen vorbehalten. Um die HD5850 und HD5870 wieder deutlicher voneinander abzugrenzen, wird das Single-GPU-Topmodell mit gleich 1600 Streamprozessoren und 80 TMUs ausgestattet. Die HD5850 dürfte erwartungsgemäß um knapp 20 Prozent langsamer rechnen als ihr großer Bruder.

Stromsparer

Der Energiebedarf der neuen Karten ist sehr lobenswert. Offenbar hat ATI es endlich geschafft, den stromhungrigen GDDR5-RAM bei geringer Last in den Energiesparmodus zu versetzen, bei den 4xx0-Karten war dieses noch nicht möglich, was sehr hohe Energieaufnahmen auch im Idle-Zustand zur Folge hatte. Ein Punkt, der oft bemängelt wurde, und bei dem ATI jetzt endlich mit Nvidia gleichziehen kann. Ohne Grafiklast brauchen die beiden Topmodelle laut ATI nur knapp 27 Watt (die c't hat sogar nur 19 Watt gemessen), also nur etwa ein Drittel dessen, was die Vorgänger forderten. Unter Last erreichen die neuen Karten minimal höhere Verbrauchswerte als die der alten Serie. Ein Umstand, der angesichts der fast verdoppelten Leistung beeindruckend ist. Bislang punkteten hier regelmäßig die Modelle von Hauptkonkurrent nVidia. Wie es dort bei den geplanten GT300-Modellen aussehen wird, ist noch unklar.

Streamprozessor

Hersteller wie ATI werben mit immer größeren Zahlen bei den sogenannten Streamprozessoren. 800 solcher Einheiten soll ein HD4870 Grafikchip enthalten, die Nachfolgemodelle der 5xx0er-Serie gar doppelt so viele.

Dabei handelt es sich um kleine, spezialisierte Recheneinheiten innerhalb der Grafikkarte,  die gleichzeitig an verschiedenen Aufgaben arbeiten können. Diese Einheiten werden auch als skalare Recheneinheiten bezeichnet. Früher unterteilte man die Rechenwerke der Grafikkarte noch in Pixelshader und Vertexshader. Erstere kümmerten sich ums Berechnen und Einfärben der dazustellenden Bildpunkte, letztere um geometrische Berechnungen sowie dynamische Veränderungen von Objekten. Die Darstellung von Wasser ist ein gutes Beispiel, wie beide Shader zusammenarbeiten -- die Bewegungen und die Dynamik der Wasseroberfläche verarbeitet der Vertexshader, die Visualisierungen der so entstandenen "Wasserrohmasse" der Pixelshader.

Aktuelle Grafikchips nutzen seit der Geforce8x00-Serie und den Radeon HD 2x00-Karten "Unified Shader": flexible Einheiten, die je nach Grad der Auslastung jede Funktion ausführen können. Auch die aktuellen Konsolen wie Sonys PS3 oder Microsofts Xbox 360 arbeiten mit solchen Unified Shadern. Der Vorteil liegt auf der Hand -- wenn viele Pixel berechnet werden müssen, langweilen sich nicht untätige Vertexshader, und bei viel Umgebungsgeometrie müssen die Pixelshader nicht Tee trinken.


Dennis Ziesecke Freier Redakteur - P - 29501 - 26. September 2009 - 7:31 #

Ich möchte mich übrigens bei ein paar Leuten für die tolle Mitarbeit bedanken! abraxa und Poledra haben korrigiert, Christoph von GG war geduldig beim Erklären, wie man Bilder in den Artikel einfügt und Jörg hatte gute Tipps zum Aufbau parat. Zumindest das mit den Bilder klappt beim nächsten mal dann auch gleich ;) .

Und zum Thema : *hechel* habenwill. Tolle Karten offenbar, den Samsung-Bildschirm hätte ich dann auch gleich noch gerne, ja? ;)

Joulupukki 09 Triple-Talent - 346 - 26. September 2009 - 9:28 #

Sehr informativer, gut recherchierter Artikel. Vielen Dank dafür!

CH64 13 Koop-Gamer - 1665 - 26. September 2009 - 9:47 #

Schöner Artikel. Jetzt hast du alles wichtige Erklärt.

Dennis Ziesecke Freier Redakteur - P - 29501 - 26. September 2009 - 10:03 #

Fast ;) .. Zu DX11 folgt dann in Kürze noch ein weiterer Artikel, wo dann auch genauer auf Begriffe wie "Tesselation" oder "Compute Shader" eingegangen wird.

CH64 13 Koop-Gamer - 1665 - 26. September 2009 - 10:35 #

Das sind Feinheiten, um die du dich noch kümmerst. Für einen ersten Einblick, wenn man keine Ahnung hat, dürfte das schon sehr helfen.

Karsten Vetter (unregistriert) 26. September 2009 - 10:23 #

Tadellose Arbeit. Finde die Hardware immer gut von dir.

melone 06 Bewerter - 1512 - 26. September 2009 - 10:35 #

Was ich lustig finde: Da versucht die Spielergemeinde seit Jahren aus der Shooter-Schmuddelecke herauszukommen und das erste Beispiel, daß Dir bei TMUs einfällt sind Blutspritzer. Bei solchen Vorlagen muß man sich nicht wunder! :O)

Mit Evolution kommt mir das Ganze irgendwie zu knausrig bewertet vor. Die Neuigkeiten und Möglichkeiten dieser Generation sind sehr im Verbund mit DirectX11 und der gesteigerten Performance zu sehen und hier gibt es signifikante und sinvolle Verbesserungen; weitaus mehr als nur bei einer üblichen Modellpflege herauskommt.

Die technischen Erklärungen sind hier und da mit kleinere Fehlern behaftet oder unglücklich formuliert. Insgesamt fehlt mir bei diesen singulären Erklärgeschichten oftmals der Ansatz auch das Gesamtkonzept dem Leser nahe zu bringen. Ansonsten fand ich's aber vom Umfang her prima.

Es gibt mittlerweile auch ein paar nette Videos, welche die angedachten Möglichkeiten zeigen.

Dennis Ziesecke Freier Redakteur - P - 29501 - 26. September 2009 - 10:47 #

Ich sage es ja nur ungerne - aber die Blutspritzer als Erklärung sind nicht von mir, die hat Jörg dazu editiert um ein anschauliches Beispiel zu haben. Schau mal in der Versionshistorie ob dir die Originalbeschreibung besser gefallen hätte ;) ..

Übrigens finde ich "Evolution" schon korrekt. Es ist im Großen und Ganzen die Basis des alten Chipdesigns, nur mit verdoppelten Einheiten und Feinschliff bei der eh schon vorhandenen Tesselationeineheit, etc.

Jörg Langer Chefredakteur - P - 323799 - 26. September 2009 - 10:57 #

Nee, das war nicht ich.

Dennis Ziesecke Freier Redakteur - P - 29501 - 26. September 2009 - 19:43 #

Oh mist, ich sehe es. Das war wirklich ich? Uhh sorry! Doof, wenn man sich an seinen eigenen Text nicht mehr erinnern kann, ich hätte schwören können..

melone 06 Bewerter - 1512 - 26. September 2009 - 11:00 #

Werd ich mal nachgucken... :O)

Wenn man realistische Maßstäbe zugrunde legt - natürlich kannst Du auch schnipp schnapp 10x schnellere Karten fordern - , dann wid der Begriff Evolution den Möglichkeiten nicht gerecht. Erstens gibt es diesmal runde und sinvolle Neuerungen, zweitens werden gewisse Techniken durch die nötige Performance und den Feinschliff erst wirklich einsatzfähig. Das Threading, die Tesselation, relistische GPU Nutzung, usw., das ist im Gesamtpacket mehr als nur Evolution.

Vermutlich sieht man sieht dies aber auch einfacher, wenn man selbst Hand anlegt.

Dennis Ziesecke Freier Redakteur - P - 29501 - 26. September 2009 - 11:01 #

Eine Neuentwicklung wäre was anderes gewesen. So wurde das bestehende Konzept überarbeitet

melone 06 Bewerter - 1512 - 26. September 2009 - 11:10 #

Das sehe ich anders. Das revolutionäre dieser Generation ergibt sich aus dem Gesamtkonzept. Dies ist wichtiger und weitaus höher zu bewerten als irgendwelche technischen Spielereien die isoliert brach liegen, aber gerne mal von der Presse hochgejubelt und dann als angebliche Revolution verkauft werden.

Dennis Ziesecke Freier Redakteur - P - 29501 - 27. September 2009 - 13:03 #

Naja, wenn eine neue Architektur auf wundersame Weise massiv Energie spart oder die Topmodelle passiv gekühlt werden könnten wäre das für mich z.b. eine Revolution. Wenn die gleiche Anzahl Recheneinheiten wie in der Vorgängergeneration die doppelte Leistung bringen würde, das wäre revolutionär für mich. Eine wundersam hinzugefügte Einheit um perfekte Kantenglättung ohne Leistungsverlust zu ermöglichen - Revolution.

Einfach doppelt so viele Einheiten wie vorher einzubauen, was aufgrund der kleineren Fertigungsstrukturen eh auf der Hand liegt und dazu die eh vorhandenen Einheiten mit wenigen Tricks DX11-tauglich zu machen, das ist reine Weiterentwicklung bestehender Konzepte - Evolution.

melone 06 Bewerter - 1512 - 28. September 2009 - 11:19 #

Worum geht's hier überhaupt?

Es geht um eine Melange aus besser auszusehen, mehr Möglichkeiten zu bieten, den Workflow zu vereinfachen, den Leistungsgedanken dabei nicht außer Acht zu lassen sowie es preisgünstig zu gestalten.

Wie dies im Detail erreicht wird ist völlig schnurzegal. Das mag von Relevanz für Nerds sein oder wenn Du einem Kunden eine Karte mit viel Blabla in die Hand drücken willst; es spielt aber keinerlei Rolle für den Entwickler sowie das Endprodukt. Wichtig ist nur, daß es funktioniert und möglichst einfach zu handhaben ist - wobei an der Stelle gesagt sein muß, daß ich mich auf den neuen Anisotropen Filter freue.

Du scheinst generell der Ingenieursleistung, die hinter solchen Neuentwicklungen in der Hard-/Software sowie dem Zusammenspiel beider Komponenten und den zu Grunde liegenden Konzepten steckt, wenig Verständnis zu schenken.

Daß dies nicht so einfach ist, zeigt schon das größere Die an, was wohl zu Juniper führt. Cypress ist sicherlich auch der RV770 Architektur aufgebaut, jedoch steckt genügend Know-How drin, damit dies überhaupt ermöglicht wurde und nochmals: Im Verbund mit DirectX 11 bietet es so viele neue Möglichkeiten wie schon lange nicht mehr. Falls Du Interesse hast, es gibt u.a. auch ein paar technisch fundierte Artikel hierzu im Netz.

Dennis Ziesecke Freier Redakteur - P - 29501 - 28. September 2009 - 11:49 #

Ich würdige die Leistung, die ATI hier vollbracht hat durchaus. Nur bin ich vorsichtig mit Begriffen wie "Revolutionäre Neuentwicklung". Natürlich steckt in den neuen ATI-Modellen sehr viel Detailarbeit und sehr viel Entwicklerschweiss. Eine radikale Neuentwicklung wäre rein wirtschaftlich für ATI sicher auch unsinn gewesen. So haben sie sich eben für die (auch in meinen Augen) sinnvollere Lösung entschieden. Nur eine Revolution ist es eben nicht, verlangt aber auch (ausser nVidia-Fans) keiner.

melone 06 Bewerter - 1512 - 28. September 2009 - 15:43 #

Wie gesagt Du solltest Dich von der Vorstellung lösen, daß sowas nur aus Hardware besteht, sondern vielmehr als Gesamtkonzept zu sehen ist, und da ist es, verglichen mit den Vorgängergeneration, ein großer Schritt, der, bleibt man bei einer der Branche üblichen Wortwahl, durchaus auch als revolutionär zu bezeichnen ist.

Pingeligen Naturen sei das Wort auch nur für die Geburt des eigenen Kindes oder die Geburtsstunde des Amigas vorbehalten. ;O9

Dennis Ziesecke Freier Redakteur - P - 29501 - 28. September 2009 - 16:07 #

Mein Kind ist auch nur Evolution ;) .. Hat ja keine drei Köpfe ;)

melone 06 Bewerter - 1512 - 29. September 2009 - 9:10 #

Siehst Du, das wäre eine vermeintliche Revolution, obwohl es neu Hardware bieten würde, sagt dies noch lange nichts über die reelle Nützlichkeit aus, da sich die Köpfe eventuell nur im Wege stünden - was wohl Zaphod dazu sagen würde?

Alex Hassel 19 Megatalent - 17895 - 26. September 2009 - 10:52 #

Wirklich ein sehr toller Artikel! *ThumbsUp!*

Crizzo 18 Doppel-Voter - P - 11022 - 26. September 2009 - 15:55 #

Schöner Artikel und die Info-Boxen waren mehr als nur wichtig, ohne die hätte ich wohl oft auf wikipedia ausweichen müssen!

PS: Infobox TMU, erste Absatz ca. 4 Zeile, da ist ein Schreibfehler.

Spiritogre 18 Doppel-Voter - 11042 - 26. September 2009 - 16:22 #

Danke für den Artikel. Eine wirklich schöne Karte!

Ich bin froh mir gerade eine Radeon 4870 gekauft zu haben. Selbst heute unterstützen nur sehr wenige Spiele die DX10 Fähigkeiten der letzten Generation. Bis die Möglichkeiten von DX11, wie toll sie auch sein mögen, flächendeckend eingesetzt werden - da muss außerdem erst einmal die nächste Konsolengeneration erscheinen, und das dauert noch - kann man dann in knapp eineinhalb bis zwei Jahren eine 5870 für 150 Euro kaufen.

Dennis Ziesecke Freier Redakteur - P - 29501 - 26. September 2009 - 18:40 #

In einem halben Jahr kommt die Serie sowieso wieder überarbeitet und flotter auf den Markt. AMD/ATI hat sich da schon noch Reserven gelassen, um nVidias GT300 zu kontern, zumindest etwas.

Wobei ich für DX11 bessere Chancen sehe, als für DX10. Werde ich aber noch einmal gesondert in einem Artikel behandeln, wenn den Kram denn noch jemand lesen möchte.

Jörg Langer Chefredakteur - P - 323799 - 26. September 2009 - 20:36 #

Also mich würde "der Kram" interessieren.

CH64 13 Koop-Gamer - 1665 - 26. September 2009 - 20:39 #

Wer es nicht lesen möchte, kann es ja lassen.

Spiritogre 18 Doppel-Voter - 11042 - 26. September 2009 - 21:30 #

Die Gamestar hat sich zum Thema DX11 ja schon groß geäußert und die Vorteile (Tesselation etc.) dargelegt. Es mag tatsächlich sein, dass DX11 mehr als DX10 genutzt wird. Ich denke aber, dass nur sehr, sehr wenige Titel von den Möglichkeiten wirklich gebrauch machen.

Wenn ich an neue Grafikhighlights denke, dann fällt mir immer sofort Crysis ein. Selbst heute gibt es kein Spiel, das da rankommt. Das liegt schlicht daran, dass die Hersteller gar kein Interesse daran haben grafisch tolle Spiele zu machen (man schau sich nur mal Venetica an oder meinetwegen auch Risen.. (und ja, schimpft nur, aber beide Titel sind technisch/grafisch komplett veraltet!!! Insbesondere wenn man dann noch deren Anforderungen berücksichtigt ist insbesondere Venetica ein Witz). Batman Arkham Asylum zeigt das deutlich, dass selbst "grafische Highlights" veraltete Engines nutzen.
Und mehr ist aus den aktuellen Konsolen auch nicht rauszuholen (jedenfalls nicht mit der Unreal Engine 3) also werden auch die PC Titel darunter leiden. PC Only Entwickler brauchen sich dann auch nicht anstrengen, da es leicht fällt die Multiplattformtitel zu toppen. Und das Spieleentwickler inzwischen nicht mehr für ein paar Nerds und Freaks entwickeln, die sich für 300 bis 500 Euro jedes Jahr eine neue Karte kaufen sollte sich auch rumgesprochen haben, da es wirtschaftlich keinen Sinn macht. Und andere wiederum schaffen es nichtmal grafisch maue Titel wie GTA 4 vernünftig auf den PC zu konvertieren, da ihre Engines zu schlecht dafür sind.

Dennis Ziesecke Freier Redakteur - P - 29501 - 26. September 2009 - 21:31 #

Ich gehe auch davon aus, dass eher im weniger sichtbaren Bereich weiterentwickelt wird. Eine Plattformübergreifende Physikengine, die GPU-Power nutzt würde Physik endlich im Spiel etablieren können. Und das würde m.E. sogar zumindest auf der XBox360 halbwegs funktionieren. PS3 - keine Ahnung, der Grafikchip dort ist doch noch einmal ein gutes Stück unmoderner als der in der Box und CPU-Power gleich nicht alles aus.

Die verbesserten Multithreadingfunktionen von DX11 kommen wiederum jedem zugute, da die Grafikberechnung nun auch auf verschiedene CPU-Kerne (effektiver) verlagert werden kann. Und Tesselation kann der Box-Chip z.b. auch schon, nur eben etwas anders implementiert. MS könnte hier eine Dominanz schaffen, die die PS3 alt aussehen lassen könnte, wenn sie den Kram fördern.

Mal schauen, was passiert.

Earl iGrey 16 Übertalent - 5042 - 27. September 2009 - 1:29 #

Sehr schön. +Punkt. :)

Dennis Ziesecke Freier Redakteur - P - 29501 - 27. September 2009 - 9:20 #

Ach ja, hätte ich fast vergessen, da ich die Kommentare gestern nur auf der Arbeit verfolgen konnte:

@melone: Welche Erklärungen sind denn fehlerhaft? Verbesserungen sind immer möglich :) .

Carstenrog 16 Übertalent - 4795 - 28. September 2009 - 1:22 #

Ich bleibe bei Nvidia. Die PhysX Unterstützung ist genial. Batman sieht damit viel besser aus.

Dennis Ziesecke Freier Redakteur - P - 29501 - 28. September 2009 - 7:06 #

Aus diesem Grunde wird bei mir bald zusätzlich zur flotten ATI-Karte eine nVidia 9600GT als PhysX-Beschleuniger arbeiten (wenn man die 9600 schon für den lächerlichen Preis von 1 Euro abstauben kann..). PhysX ist für viele ein echtes Argument. Daher hoffe ich stark auf eine OpenCL- oder Compute-Shader-Physikengine, die dann gleichermaßen von Grafikkarten beider Hersteller genutzt werden kann. Auch wenn nVidia den xxx tun wird, sich an einer entsprechenden Entwicklung zu beteiligen.

Aber auch bei der 3D-Grafik gab es erst (von den ersten Voodookarten abgesehen) bahnbrechende Fortschritte, als die APIs standarisiert wurden. Durch DirectX und OpenGL übrigens, beide Schnittstellen könnten jetzt die Physikberechnungen revolutionieren. Und die Berechnungen für KI, Wegfindung und so weiter. Hach.

rabauke 12 Trollwächter - 1056 - 28. September 2009 - 12:00 #

Sehr schön, dass hier auch mal etwas mehr über Hardware berichtet wird. Das kommt meiner Meinung nach auf GamersGlobal noch etwas zu kurz.

Dennis Ziesecke Freier Redakteur - P - 29501 - 28. September 2009 - 12:04 #

Wenn es sonst niemand macht, versuche ich die Hardwarefahne weiterhin gehisst zu halten. :)

Larnak 21 Motivator - P - 25537 - 28. September 2009 - 13:56 #

Sehr schöner Bericht, da werde ich auch in den nächsten Wochen sicher immer mal wieder was nachschlagen.
Da mein PC mittlerweile runde 4 Jahre alt ist, werde ich mir auch gleich eine der neuen Karten zulegen - die Preise sind zwar für sich genommen irgendwo "hoch", aber vor 4 Jahren hat man für eine im Verhältnis ähnlich starke Grafikkarte noch ganz ohne Probleme 500 Euro ausgegeben.

Dennis Ziesecke Freier Redakteur - P - 29501 - 28. September 2009 - 16:06 #

Ich erinnere mich auch an diverse Geforce2-Topmodelle für 1200-1300 D-Mark damals. So schlimm ist es also gar nicht. Nur der Energiebedarf ist heftiger geworden, deutlich ;) .. Von 9 auf 199 Watt ;) ..

Maisrider 09 Triple-Talent - 295 - 29. September 2009 - 13:28 #

2200 MHz Genial.

Dennis Ziesecke Freier Redakteur - P - 29501 - 30. September 2009 - 16:00 #

Jetzt wo du es schreibst, fällt es mir erst auf. Es sind sogar 2400 MHz ;) .. Habs in der Tabelle verbessert.

Und da GDDR5 den Takt quasi erneut verdoppelt, handelt es sich um die Power von 4800 MHz! Schon krass. Wenn nVidia jetzt wirklich GDDR5 mit ähnlichen Taktraten aber 384 Bit Speicherinterface bringt - huh!

Dennis Ziesecke Freier Redakteur - P - 29501 - 30. September 2009 - 19:39 #

Computerbase hat Tests der HD5850 veröffentlicht - tolle Karte für mittlerweile teilweise schon unter 200 Euro! Weniger Energiehunger als noch die HD4850 (und das unter Last, im Idle sind gar nur ein drittel), leise, schneller als die GTX285. Wow!

bolle 17 Shapeshifter - 7613 - 3. Oktober 2009 - 23:49 #

Ich bin noch auf die 57xx Serie gespannt die auch noch kommen soll.

Dennis Ziesecke Freier Redakteur - P - 29501 - 4. Oktober 2009 - 8:56 #

Ich auch, höchstwahrscheinlich werde ich mir, wenn denn die Leistung stimmt und den Gerüchten entsprechend in Reichweite einer HD4890 liegt, eine HD5770 kaufen. Die angepeilten 150 Euro habe ich vor einigen Monaten auch noch für ne 4850 zahlen müssen ;) .

Drifter 16 Übertalent - P - 5255 - 23. Oktober 2009 - 12:41 #

Ich bin sehr auf Nvidias Konter gespannt. Derzeit favorisiere ich die ATI 5850.

Da ich noch auf einer wassergekühlten 8800GTS/640 rumgurke wird es langsam mal Zeit für ein Upgrade. Allerdings erst wenn alle "Karten" - Wortspiel höhö - auf dem Tisch liegen und objektive Vergleiche möglich sind.

DigiDragon 06 Bewerter - 92 - 10. März 2010 - 17:19 #

Ich kauf mir bald die HD5850

Dennis Ziesecke Freier Redakteur - P - 29501 - 10. März 2010 - 17:37 #

Auf die habe ich auch ein Auge geworfen. Allerdings sind die Preise mittlerweile jenseits von gut und böse.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)