ATI: Finale Daten der HD5750/5770

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

8. Oktober 2009 - 15:03
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Eigentlich sollten diese Daten noch bis zum 13. Oktober unter Verschluss bleiben, sonderlich gut hat die Geheimhaltung dieses mal aber wohl nicht funktioniert. Nachdem ausgewählte Pressevertreter erst gestern bei einer Telefonkonferenz mit ATI über die Details der Juniper-Karten aufgeklärt wurden, sind bereits am Abend die dazugehörigen Folien im Netz gelandet.

Laut diesen offiziellen ATI-Dokumenten erscheinen die beiden Mittelklassekarten HD5750 und HD5770 bereits kommende Woche, am 13. Oktober 2009. Die technischen Daten sind nicht uninteressant, unterscheiden sich aber in einigen Punkten von denen, die diverse Onlineshops für vorzubestellende Karten angegeben haben.

So verfügt die HD5750 über 720 Streamprozessoren, nutzt ein 128 Bit breites Speicherinterface mitsamt 512 oder 1024 MB GDDR5 VRAM bei effektiven 4600 MHz und taktet die GPU mit 700 MHz. Die Rechenleistung liegt mit 1 TFLOPs ungefähr auf dem Niveau der aktuellen HD4850. Gute Nachrichten gibt es beim Energiebedarf zu vermelden - 86 Watt unter Last und nur 16 Watt im Idlemodus sind sehr gute Werte, erfordern aber trotzdem einen 6-Pin PCIe-Stromstecker. 

Die für den ambitionierten Gelegenheitsspieler aktuell interessanteste Karte dürfte allerdings die HD5770 werden. Hier wurden die Streamprozessoren auf dem Niveau der alten Topmodelle bei 800 belassen, der mit 4800 MHz getaktete GDDR5-Speicher fasst 1GB und ist mit 128 Bit angebunden. Die GPU taktet mit 850 MHz, was eine Gesamtleistung von 1,36 TFLOPs ergibt. Damit dürfte die Leistung auf den Niveau der HD4890 liegen, allerdings bei deutlich geringerem Energiebedarf. Nur 108 Watt unter Last und 18 Watt im Idle soll die Karte verbrauchen, auch hier reicht ein zusätzlicher 6-Pin PCIe-Stromstecker. Wie sehr das nur 128 Bit breite Speicherinterface die Karte im Vergleich zu den Vorgängermodellen ausbremst, werden erst echte Benchmarks zeigen können.

Nicht minder interessant als die technischen Daten sind auch die von ATI angegebenen Preispunkte. Die HD5750 soll demnach bei 109-129 Dollar, die HD5770 bei 159 Dollar liegen. Damit wäre die HD5750 bei ausreichender Verfügbarkeit für deutlich weniger als 100 Euro anzubieten, die HD5770 dürfte sich bei 129 Euro einpendeln. 

Eyefinity für die gleichzeitige Nutzung von drei Bildschirmen ist natürlich bei all diesen Karten integriert - 2x DVI, HDMI und Displayport sind dafür auf den Karten vorgesehen. Für die Nutzung eines dritten Bildschirmes muss aber mindestens ein Monitor zwingend per Displayport verbunden werden! 
Weiterhin verfügen die Karten natürlich über alle Funktionen für Microsofts kommende DirectX11-Schnittstelle. Wie ein bereits verfügbarer DX11-Patch für das Strategiespiel Battleforge zeigt, sind durch einfache Anpassungen der Engine bereits Leistungsgewinne von bis zu 20% machbar, was die neuen Karten noch weiter von ihren Vorgängern abheben dürfte.

Die ATI-Folien finden sich in den Quellenangaben.

bolle 17 Shapeshifter - 7789 - 8. Oktober 2009 - 12:54 #

Die 5750 ist also gleich stark und verbraucht gleich viel wie wie eine 4770, nur billiger, kann 3 Bildschirme und DX11?

War bei allen 4xxx Karten der Speicher mit 128 Bit betrieben?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 12:59 #

Die größeren 4000er (HD4850, HD4870, HD4890) hatten 256 Bit. Die HD4770 nutzt dagegen auch nur 128 Bit. GDDR5 gleicht das allerdings bei diesem Modell aus, da hier der Speicher effektiv doppelt so schnell arbeitet wie GDDR3. 128Bit mit GDDR5 entspricht also quasi 256Bit mit GDDR3.

bolle 17 Shapeshifter - 7789 - 8. Oktober 2009 - 13:05 #

Und die 48xx hatten GDDR3 Ram?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:06 #

Die HD4830 und HD4850 hatten GDDR3, die HD4870 und HD4890 hatten GDDR5.

Stefan1904 30 Pro-Gamer - 128595 - 8. Oktober 2009 - 13:01 #

Langsam aber sicher hat Nvidia ein echtes Problem. Bei den Leistungsdaten und Preisen können sie nicht mithalten und in naher Zukunft sehe ich da auch keine konkurrenzfähigen Produkte. ATI könnte es sich bestimmt auch leisten, die Preise höher anzusetzen.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:04 #

Und trotzdem liegen die angekündigten Preise sogar deutlich unter den erwarteten. 150/199 Dollar waren ja zuerst angekündigt.

Stefan1904 30 Pro-Gamer - 128595 - 8. Oktober 2009 - 13:07 #

Mmh, wo sie doch wissen, dass bei Nvidia erstmal nichts kommt und mit DX11 als Werbeargument hätten sie die nächste Zeit richtig was verdienen können.

Armin Luley 19 Megatalent - 13755 - 8. Oktober 2009 - 13:07 #

Glaub nicht, daß AMD daraus wirklich Kapital schlagen kann. Die Masse ist unbeweglich und bleibt bei dem, was sie kennt. Das ist in der Mehrheit der Fälle nVidia. Ist wie mit Intel. Jahrelang die schlechteren Prozessoren und trotzdem mehr CPUs verkauft als AMD.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:09 #

Wenn allerdings bei nVidia keine bezahlbare DX11-Karte kommen sollte (was ich nicht hoffe aber befürchte) und tatsächlich der eine oder andere DX11-Knaller erscheint, dann wird auch ein nVidia-Fan umschwenken.

bolle 17 Shapeshifter - 7789 - 8. Oktober 2009 - 13:08 #

Gute News. Ich hatte die News auch auf CB gelesen, wollte das Schreiben des Artikel aber dann doch jemandem überlassen, der Ahnung davon hat ;)

Ich schätz es wird bei mir auf ne 5770 mit schönem Kühler rauslaufen, mal schauen was XFX da anbietet.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:11 #

Ich hab die Neuigkeit gestern Nacht noch bei mir im Forum gepostet, mich aber noch nicht getraut, eine GG-News draus zu machen. Die Folien sind ja nun doch auf seeehr seltsamen Umwegen ins Netz gekommen offenbar ;) . Aber wenn CB selbst schon "scheiss drauf" sagt.. ICH habe kein NDA unterschrieben ;) ..

bolle 17 Shapeshifter - 7789 - 8. Oktober 2009 - 13:16 #

Alle reden von einer "Telefonkonferenz". Wie kommen bitte Präsentationsfolien durchs Telefon? Oder hat einer diese Tabellen mit den per Telefon durchgegebenen Daten nachgebaut?

Jörg, wie siehst du das mit solchen NDAs wenn die Sachen woanders im Netz schon kursieren?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:17 #

Telefonkonferenzen kann man auch um eMails erweitern ;) ..

und ein NDA kann man wohl nur brechen, wenn man es auch unterschrieben hat, würde ich jetzt mal so orakeln.

Rondrer (unregistriert) 8. Oktober 2009 - 13:31 #

Schade, dass ich die nächsten Monate keine Aufrüstung geplant habe ;(
Die Karten klingen wirklich sehr vielversprechend. Wenn die Benchmarks das bestätigen, was die Daten versprechen ;)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:33 #

Naja, in den kommenden Monaten wird es dann ein Refresh der Karten geben und wenn nVidia sich etwas Mühe gibt fallen auch die Preise. Kannst also ruhig abwarten, auch wenns mir persönlich schon in den Fingern kribbelt :) ..

melone 06 Bewerter - 1512 - 8. Oktober 2009 - 13:35 #

Sieht schon irgendwie :....... aus, oder?!

Irgendwann hab ich mir mal gesagt: Nie mehr unter 256Bit auf dem Desktop.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:36 #

Hehe. Geht mir ähnlich, daher mag ich die 5850 auch so sehr. Aber für den preisbewussten Käufer ist GDDR5+128 Bit ausreichend finde ich.

melone 06 Bewerter - 1512 - 8. Oktober 2009 - 13:41 #

Ich hätte gerne eine preisbewußte Karte, aber mit nem 256Bit Interface. Performancemäßig zwischen der 5850 und der 5770 - so wie's ja auch wohl mal angedacht wahr -, u.a. wegen der Auflösung und den AA-Einstellungen.

BolleY2K 08 Versteher - 221 - 8. Oktober 2009 - 13:37 #

Du hast einen Tippfehler:

"Die HD5850 soll demnach bei 109-129 Dollar" - das muss 5750 heissen. :-)

@melone: 256Bit auf dem Desktop? Du verwechselst da irgendwas...

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:41 #

Danke, wird geändert. Und melone meinte wohl, dass ein Notebook oder HTPC gerne ein kleineres Speicherinterface nutzen darf, der Desktop-PC aber Power braucht :) .

melone 06 Bewerter - 1512 - 8. Oktober 2009 - 13:43 #

Nö, 256Bit breites Speicherinterface für Desktopversionen, und von mir aus 128Bit für die mobilen Ausführungen.

BolleY2K 08 Versteher - 221 - 8. Oktober 2009 - 13:41 #

Ah ok - falsch verstanden - so ists besser. ;)

BolleY2K 08 Versteher - 221 - 8. Oktober 2009 - 13:48 #

Ich finde die 5770 aber durchaus interessant - grade für meine Freundin, die nur gelegentlich spielt. Die hat zZ. noch eine 8800 GTS 640 - und die zieht auch im 2D-Betrieb noch gut Strom...

Wobei das ne gute ist, seit 2,5 Jahren problemlos mit 660/1020 am laufen.

melone 06 Bewerter - 1512 - 8. Oktober 2009 - 13:49 #

Ich halte die 5750 dann aber für die bessere Karte.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:50 #

Irgendwie sind wir uns heute einig, kann das sein? ;)

melone 06 Bewerter - 1512 - 8. Oktober 2009 - 20:34 #

Sind wir doch am Ende fast immer, oder? ;O)

Nein, ich halte das Bissle an Mehrleistung, das die 5770 liefert nicht für wirklich relevant - außer Du willst die Karte rechenmäßig auslasten. Das bessere Preis-/Leistungsverhältnis hat hier die 5750; wenn 128 Bit, dann die.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 13:49 #

Da reicht vielleicht ja sogar eine HD5750. Schneller als die GTS ist die allemal und der Energiebedarf ist vergleichsweise gering.

BolleY2K 08 Versteher - 221 - 8. Oktober 2009 - 13:54 #

Sicherlich, aber ein kleines Leistungspolster kann doch nie schaden. ;-) Für die jetzigen 1440 x 900 reicht auch die kleinere Karte dicke - aber die Preisdifferenz ist auch wieder relativ gering.

Die olle G80 profitiert übrigens ordentlich von der Übertaktung - das macht 2700 Punkte in 3DMark06 ~ 8800 GTX Niveau.

Ich häng an dem Ding - hat fast 350 Euro gekostet. *G*

Das ist schon heftig, wenn man sich da mal wieder vor Augen führt WIE günstig wieviel Leistung heute geworden ist!

BolleY2K 08 Versteher - 221 - 8. Oktober 2009 - 15:07 #

Die ersten Preislistungen sind auch schon da, um die 150 respektive 125 Euro für 4770 und 5750.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 15:11 #

Und die werden noch einmal stark nach unten korrigiert werden, eine 1:1 Dollar/Euro-Umrechnung gabs bei den großen Modellen nämlich auch nicht :) .

BolleY2K 08 Versteher - 221 - 8. Oktober 2009 - 15:16 #

Das ist ja normal, dass die Preise immernoch sinken - fand den Einstandspreis dennoch interessant - und fair. :-)

Ganz ehrlich - wer kauft da noch eine GTS 250 oder GTX 260?

Spitter 14 Komm-Experte - - 2255 - 8. Oktober 2009 - 19:57 #

Hm verzeit die dumme frage : Aber warum sollte ich mir z.b. die 5750 kaufen wie sie auf der höhe mit der 4890 liegt nur wegen dx 11 ?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 20:06 #

Du meinst die HD5770? Die 5750 liegt etwas bei der 4850. Ansonsten: Geringerer Stromverbrauch, leichter zu kühlen (damit wohl auch leiser) und DX11 ist tatsächlich ein Argument auch jenseits von neuen Effekten. Denn durch diverse Verbesserungen ist es für Entwickler recht einfach mit einem entsprechenden Patch einiges an Leistung zusätzlich aus alten Engines zu quetschen. Schau dir Battlefront an, der DX11-Patch hat visuell nichts gebracht - aber bis zu 40% zusätzliche FPS. Damit würde die 5770 dann plötzlich eher mit der GTX275 oder gar 285 konkurrieren. Dazu kommt die Hoffnung auf die Bullet-Physikengine, die ATI (und mittlerweile auch nVidia) voranbringen möchte und die herstellerunabhängig Physik berechnen soll.

Spitter 14 Komm-Experte - - 2255 - 8. Oktober 2009 - 20:37 #

Ja ok. Aber ist für manche nur immer noch n bissle geld und ob sich das dann so rechnet ka ! Ich warte (gewohnheitstier) evtl noch auf Nvidia falls se noch was bringen / können . Aber danke für die Info .

Achso Buller Physik ? Macht Nvidia nicht Phys X?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 8. Oktober 2009 - 20:41 #

nVidia hat jüngst bekannt gegeben, dass sie kein Problem mit einer offenen Physikengine haben und die Entwickler von Bullet sogar schon mit nVidia-Entwicklungstools arbeiten ;) .

Zum Geld : Wenn man sich in einer Woche oder zweien eine neue Grafikkarte für 120-130 Euro kaufen möchte, würde ich immer die HD5770 nehmen. Die GTX260 und die HD4790 sind in vielen Punkten einfach unterlegen, selbst wenn die Leistung ansonsten ähnlich wäre. Warum ein veraltetes Produkt kaufen, wenns fürs gleiche Geld auch was aktuelles gibt?

Und bis nVidias neue Karten wirklich im Laden stehen - naja, richte dich auf Februar ein.

melone 06 Bewerter - 1512 - 8. Oktober 2009 - 20:47 #

Warum auch nicht? CUDA ist ja auch frei verfügbar.

Wobei wenn ich ein Bullet-Entwickler wäre, ich mir erstmal ernsthafte Gedanken über die Qualität und Stabilität der Engine machen würde, bevor ich mich ans Portieren setz. Aber mei, so san's halt...

CH64 14 Komm-Experte - 1885 - 8. Oktober 2009 - 22:48 #

Willst du so viele Spieler mit ihren Karten ausschließen? Das Produkt ist dadurch bei weitem nicht so attraktive für Entwickler ,wenn die meisten Spieler nichts davon haben. Was die Technik für Spieler weniger attraktive macht.

melone 06 Bewerter - 1512 - 9. Oktober 2009 - 8:49 #

Ich bin mir nicht sicher, ob ich Dich hier verstehe, aber ich versuch's mal.

Da schreibt jemand was über für alle Systeme verfügbare Physik und Tralala. Ein anderer schreibt's von ihm ab, dann noch einer, usw. Bei den Lesern ensteht ein Bild im Kopf, daß suggeriert: Zu den etablierten Lösungen der bösen Jungs, gibt's eine Alternative, die überall läuft, super!

Was hier nur völlig außer acht gelassen wird, ist die Qualität dieser Physikengine. Physikengines gehören mit zu den komplizierteren Geschichten und es gibt hier eine Menge von Faktoren, die enorm wichtig sind wie z.B. Stabilität, Genauigkeit, Funktionsumfang, Integration, Geschwindigkeit, ...

Was hilft's Dir, wenn Du eine Physikengine hast, diese aber nicht sauber funktioniert, zickt oder sperrig zu bedienen ist, als daß Du um ein Vielfaches länger brauchst, bis Du das gewünschte Ergebnis, falls überhaupt erzielbar, erreichst?

Es gibt auch einfache Anwendungsbereiche für die es reicht z.B. ein paar Kisten durch die Luft torkeln zu lassen, aber wie gesagt ab einer gewissen Komplexität und bei gewissen Aufgabenstellungen trennt sich die Spreu vom Weizen. Du willst doch auch ein Spiel haben, daß gut funktioniert, und bei dem sich die Physik nathlos in das Spielgeschehen integriert, oder?

Generell ist es ist in vielen Fällen besser etwas erst mal im Kern sauber hinzubekommen und wenn es dann zuverlässig läuft, sich an die Portierung zu wagen; besser als alles gleichzeitig erschlagen zu wollen. Zumal ich mal davon ausgehe, daß ATI hier nicht unbegrenzt Ressourcen zur Verfügung stehen.

Havok und PhysX sind nicht erst seit gestern auf dem Markt und das merkt man den Produkten auch an. Sieh Dir mal die Releasenotes beider Engines an. Vielleicht wird Bullet ja mal eine tolle Engine, aber solche Dinge brauchen ihre Zeit.

Mitarbeit