Dual-GPU GTX470 von Galaxy: "Holt Grill und Gabeln"

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 29503 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreicht

5. Juni 2010 - 10:37 — vor 6 Jahren zuletzt aktualisiert

Auf der aktuell in Taiwan stattfindenden Fachmesse Computex präsentieren zahlreiche Hersteller ihr kommendes Produktsortiment. Bei den für PC-Spieler interessanten Grafikkarten konzentrieren sich viele Firmen auf die neue GTX400-Generation von NVidia. Meistens werden allerdings nur modifizierte Lüfterkonstruktionen oder übertaktete Grafikkarten gezeigt. Ein deutlich beeindruckenderes Modell hat Galaxy ausgestellt: eine Dual-GPU-Grafikkarte mit zwei NVidia GTX470-Grafikchips, die per internem SLI zusammen geschaltet sind. Von den insgesamt 2560 MB GDDR5-Grafikspeicher werden effektiv pro GPU nur 1280 MB genutzt werden können. 

Diese GPU ist für ihren Energiehunger berüchtigt, die damit verbundene Abwärme sorgt schon bei aktuellen Single-GPU-Grafikkarten für laute Lüfter. Über 250 Watt verbraucht eine GTX470-Grafikkarte, wenn sie gut ausgelastet wird -- gleich zwei dieser Kochplatten-Chips auf einer Platine zu verbauen, ist ein mutiges Unterfangen von Galaxy. Bei dem in Taipeh ausgestellten Board handelt es sich dann auch um einen Prototypen, bei dem sicherlich noch lange nicht die letzte Leiterbahn verlötet ist. Die beiden 8-Pin-PCIe-Stromanschlüsse werden allerdings wohl den Weg auch auf die endgültige Platine finden. 

Um den Energiebedarf in den Griff zu bekommen, wird Galaxy nicht nur tief in die Trickkiste greifen müssen, sondern höchstwahrscheinlich auch die Spannung der GPUs senken, was mit einer Reduzierung der Taktraten einher gehen wird. Trotzdem wird eine solche Grafikkarte ein heißes Vergnügen -- die Grillsaison ist eröffnet! Fudzilla titelt dann auch schon spöttisch "Holt Fleisch und Gabeln!" in Anspielung auf die zu erwartenden Temperaturen dieser Grafiklösung.
  

Rondrer (unregistriert) 3. Juni 2010 - 8:48 #

Ist doch wunderbar, jetzt zur WM ist jeder Grill willkommen :D

Mithos (unregistriert) 3. Juni 2010 - 12:10 #

Haben solche Dual-GPU-Dingers eigentlich immer noch mit den Mikro-Rucklern zu kämpfen? Die Synchronisation der zwei GPUs ist wohl für dieses Problemchen verantwortlich, ist das inzwischen gelöst?

Tom T (unregistriert) 3. Juni 2010 - 15:00 #

Gamaxy 19 Megatalent - P - 13346 - 3. Juni 2010 - 17:24 #

"Von den insgesamt 2560 MB GDDR5-Grafikspeicher werden effektiv pro GPU nur 1280 MB genutzt werden können."

Den Satz verstehe ich nicht, es sind doch 2 GPUs, ergo dann wieder 2.560 MB? Oder soll es heißen, dass insgesamt nur 1.280 MB genutzt werden können?

Loki 11 Forenversteher - 597 - 3. Juni 2010 - 19:05 #

Geht glaube darum, dass die Daten mitunter redundant abgelegt werden müssen, für jede GPU extra. Dadurch reduziert sich der effektiv nutzbare Speicher auf die hälfte.

SirVival 16 Übertalent - P - 4456 - 3. Juni 2010 - 19:11 #

Besonders kompatibel zu diesen beiden PC-Grills wäre ein Produkt das man allgemein schlechthin als "Bruzzler" kennt ^^ Na dann einen Guten in Taiwan !

Jadiger 16 Übertalent - 4890 - 3. Juni 2010 - 22:45 #

Die Daten werden doppelt eingelesen jede Gpu hat seinen eigen Ram,
und klar gibts noch microruckler. Wenn die Karten richtig was zu tun haben dann merkt man das gewaltig, aber bei 60 Fps plus sind sie nicht vorhanden. Aber wennstt nur 30fps hast dann schaft jede Gpu 15 Fps und das kann dann auch so aussehen wie 15Fps obwohl 30 angezeigt werden.
Sowas ist eigentlich nur für Benmarcks gut weil viele kaufen sich 2mal lieber eine Mittelklassekarte und haben dann nur ärger damit.
Und eine Dualgpu von dem Chip ist nur so eine sache damit Nvidia ja auch eine Dualgpu-karte hat. Aber wie zum teufel wollen sie das machen gleich mit Netzteil und Wasserkühlung ausliefern. Die sollen lieber mal Ati nen Preiskampf liefern das die Kunden schnelle gute und billige Karten bekommten.
Und nicht so einen sinnlosen stromfresser zusammen basteln.

Rondrer (unregistriert) 4. Juni 2010 - 7:05 #

Also so schlimm isses ja nun auch nicht. Ich zock seit längerem mit ner 3870X2 und mir fallen keine Mikroruckler auf.
Ja wahrscheinlich bin ich einfach jemand, der da nicht wirklich so sensibel drauf reagiert, aber dass ein Spiel bei 30fps aussieht wie mit 15fps is einfach Quatsch.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)