NVidia Geforce GTX580: Leise, schnell und teuer

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

10. November 2010 - 13:06 — vor 13 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Der König ist tot -- es lebe der König! NVidia beerdigt die GTX480 und stellt die GTX580 vor. Damit lösen die kalifornischen GPU-Spezialisten ihr Topmodell nach nur acht Monaten ab ersetzen es gegen ein überarbeitetes Modell. 

Allerdings hatte es die GTX480, die Karte mit dem bis gestern schnellsten Single-Grafikprozessor auf dem Markt,  nicht leicht. Bereits vor dem Release rankten sich unzählige Gerüchte über Fertigungsprobleme, fehlerhafte Chips und extreme Energieaufnahmen um den Chip. Als es dann mit fast einem halben Jahr Verspätung im März die erste Fermi-Grafikkarte das Licht der Händlerregale erblickte, bestätigten sich die Befürchtungen bezüglich des Stromverbrauchs. Auch in Sachen Lautstärke war die GTX480, zumindest unter Last, kein Vorbild. Dabei musste NVidia den eigentlich auf höhere Leistungen ausgelegten Fermi-Chip bereits beschneiden, um überhaupt eine marktfähige Karte zu erhalten. Von ursprünglich geplanten 512 Shadereinheiten verblieben der GTX480 nur 480, auch bei den Textureinheiten und den ROPs wurde der Rotstift angesetzt. Dennoch war die Geforce GTX480 schneller als AMDs Konkurrenzkarte HD5870. Und vielen Enthusiasten waren sowohl Lautstärke als auch Energiebedarf herzlich egal.

Technisches

Die GTX580 basiert natürlich auf dem Fermi-Grafikkern der GTX480 und stellt grob gesehen deren unbeschnittene Vollausstattung dar. 512 Shadereinheiten, 64 TMUs und 48 ROPs arbeiten zusammen mit einem 384 Bit breiten Speicherinterface für 1,5 GB GDDR5-RAM. Beim Speicher hat sich also nur wenig getan, einzig die Taktfrequenz wurde von 924 MHz bei der GTX480 auf 1002 MHz erhöht. Die GPU der GTX580 selbst taktet mit 772 MHz knapp 10 Prozent schneller als beim Vorgänger. Die Techniker bei NVidia mussten allerdings einige Detailänderungen im Chip vornehmen, um sowohl den Energiebedarf zu senken, als auch die Leistung zu erhöhen. Allerdings scheint das Innenleben des GF110 genannten Chips noch stark mit dem des GF100 verwandt zu sein. So ist die Video-Engine der GTX580 nicht auf dem Stand der kleineren GF104-GPUs und unterstützt weder DTS-HD Master Audio noch Dolby True HD. 

Leistung

Die Leistung der GTX580 kann sich sehen lassen. NVidia liegt zwar immer noch knapp hinter AMDs Flaggschiff, der HD5970 -- diese Karte besteht aber aus zwei GPUs und leidet unter den Nachteilen von Multi-GPU-Lösungen wie Mikrorucklern und teils nur zögerlicher Treiberanpassung. AMDs HD5870 wird indes in so gut wie allen wichtigen Gamingdisziplinen um bis zu 40% geschlagen. Den eigenen Vorgänger, die GTX480, schlägt das neue Geforce-Modell um 15 bis 20%. Ein durchaus absehbares Ergebnis angesichts der nur moderat gestiegenen Taktraten und der um wenige Prozent erhöhten Shadermenge. Besonders die sehr schnelle Tesselationeinheit der GTX580 beschleunigt moderne Titel wie Metro 2033 stark. AMD wird sich mit der voraussichtlich Ende November erscheinenden HD6970 anstrengen müssen, die GTX580 zu schlagen. Wer also kompromisslose Leistung auch in höchsten Auflösungen verlangt, wird mit der GTX580 glücklich. Durch den Support von 3D-Vision und der extremen Grafikleistung eignet sich die neue Geforce auch hervorragend für Spiele in stereoskopischem 3D.

Lautstärke, Energieaufnahme

Um eine Karte mit knappen 3 Milliarden Transistoren und der Leistung eines nur wenige Jahre alten Superrechners effizient zu kühlen, musste sich NVidia etwas einfallen lassen. Trotz gesteigerter Leistung schafften es die Ingenieure immerhin, den Energiebedarf der GTX580 um gute 20 Watt bei Volllast zu senken. Im "Windows-Modus", also im 3D-Ruhezustand, liegt AMD noch immer ein wenig in Führung, unter Last (bei geringerer Leistung) sowieso. Ein großer Wurf hingegen ist NVidia mit dem Kühlsystem der GTX580 gelungen. Eine Verdunstungskammer, "Vapor Chamber" genannt, sorgt für eine großflächigere Wärmeverteilung weg vom heißen Grafikchip, hin zu den Kühlrippen der Lüfterkonstruktion. Die Vapor-Chamber besteht in diesem Falle aus Kupfer, die zugrunde liegende Technik nutzt AMDs Leib-und-Magen-Hersteller Sapphire bei den hauseigenen Vapor-X-Grafikkarten schon eine gute Weile. NVidia will das Prinzip noch etwas überarbeitet haben -- und tatsächlich ist der Geräuschpegel einer unter Volllast laufenden GTX580 mit 1,3 Sone kaum höher als der einer AMD HD6870. Letztere liefert jedoch deutlich weniger Leistung und benötigt nur einen Bruchteil der Energie. Im Ruhezustand lässt sich eine GTX580 mit 0,3 Sone nur schwer aus einem laufenden Computer heraushören.

Weniger gut sieht es hingegen beim Preis der GTX580 aus. Glücklicherweise handelte es sich bei der Produktvorstellung um einen sogenannten "Hard Launch", es sind also zum Start tatsächlich ausreichend Karten im Handel verfügbar. Allerdings beginnen die Preise erst bei 470 Euro und liegen damit mehr als 100 Euro über den Preisen der GTX480. Diese wird seit der Vorstellung der GTX580 übrigens nicht mehr produziert; die Restbestände werden abverkauft. AMD reagierte recht flott auf die GTX580 und senkte zügig die Preise für das aktuelle Topmodell HD5970 -- ein Preissturz von knapp 500 Euro auf 370 Euro.

Fazit

Die GTX580 ist die schnellste Single-GPU-Grafikkarte auf dem Markt. Wie lange noch, muss sich allerdings zeigen, da in wenigen Wochen AMDs HD6970 erscheint. Im Gegensatz zur GTX480 handelt es sich bei der GTX580 um eine vertretbar leise Karte. Doch der Energiebedarf liegt noch immer auf einem viel zu hohen Niveau. Wer allerdings für maximale Leistung unter Volldampf auch einmal 300 Watt nur für die Grafikkarte investieren mag, wird gut bedient. Der Preis der GTX580 erscheint uns im Vergleich zum nur 15 bis 20% langsameren Vorgängermodell etwas zu hoch angesetzt. 

volcatius (unregistriert) 10. November 2010 - 13:22 #

Viel zu teuer. Eine 500-Euro-Grafikkarte braucht man heutzutage nicht mehr, der Aufrüstwahnsinn hat sich (u.a. aufgrund der Konsolen) in den letzten 2-3 Jahren enorm verlangsamt.
Meine ATI5850 wird mir wahrscheinlich bis zum Ende der Konsolengeneration gute Dienste leisten.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 13:26 #

Volle Zustimmung. Solche Karten sind nette Prestigeobjekte - sowohl für die Hersteller als auch für die performancehungrigen Kunden. OK, als CUDA-Karte in chinesischen Superrechnern machen sich die Dinger gut. Und wer Highres-Mods liebt und gerne mit mehreren Bildschirmen und Kantenglättung in 3D spielt kommt trotzdem nicht um solch ein Monster herum. Trifft aber nicht auf viele Leute zu :D .

Vaedian (unregistriert) 10. November 2010 - 16:54 #

Jup, einer der wenigen Gründe der ums ich greifenden Konsolifizierung zu danken.

Rondidon 15 Kenner - 3108 - 10. November 2010 - 16:54 #

Ich sags immer wieder: ich hab immer noch eine Geforce 8800 512 von Ende 2007 - und spiele immer noch alles bei hohen bis maximalen Details. Warum aufrüsen? Lieber warten bis zur übernächsten Generation, die mit der neuen Xbox kommt und dann für 150€ eine Radeon HD 7650 mitnehmen.

John of Gaunt 27 Spiele-Experte - 78508 - 10. November 2010 - 18:11 #

Ähnliches hier. Habe noch eine Radeon HD 4870 von Ende 2008 und kann damit auch noch alles mit zumindest hohen Details spielen. Finde ich gut, muss man nicht immer so viel Geld für Hardware ausgeben, sondern kann es in neuen Spielstoff stecken.

Andreas Monz 11 Forenversteher - 757 - 11. November 2010 - 14:22 #

Die hatte ich auch noch bis vor zwei Wochen. Nun bin ich auf die GTX 470 SOC von Gigabyte umgestiegen, mit einem leisen Kühler und übertaktet. Also der Unterschied ist schon merklich. Vor allem habe ich die Karte für EUR 270,-- gekauft, sie ist nicht viel langsamer als eine GTX 480.

http://geizhals.at/a557580.html

icezolation 19 Megatalent - 19280 - 10. November 2010 - 13:26 #

Mit der Karte kann man bestimmt zwei Rechner bedienen. Theoretisch.

Was ein (Preis)Monster...

Shatter 10 Kommunikator - 525 - 10. November 2010 - 13:34 #

Die Karte mag leiser sein als der Vorgänger, wirklich leise unter Last ist sie aber auch nicht (hab ne 6870er, ist also nicht einfach geraten). Und müssten nicht Quellen angegeben werden oder habt ihr z.B. die Leistungsunterschiede wirklich selbst gemessen?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 16:18 #

Leise im Vergleich zu anderen Modellen mit vergleichbarer Leistung. Extrem leise im Vergleich zum Vorgänger. Wenn ein Mittelklassemodell wie die 6870 so laut ist darf man das ruhig kritisieren. Wenn ein Topmodell wie die 580 so laut ist verdient das allerdings tatsächlich Lob. Zwischen den beiden Karten liegen über 100 Watt an Abwärme.

DarkVamp 12 Trollwächter - 1165 - 10. November 2010 - 13:38 #

Kann mit meiner neuen RADEON HD 6850 alles in FullHD und MaxDetails spielen und Benchmarks sind was fuer Kinder...

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 13:53 #

Viel Spaß mit Metro 2033 ;) .

Ansonsten gebe ich dir ja recht, kaum jemand braucht so teure Karten.

DarkVamp 12 Trollwächter - 1165 - 10. November 2010 - 17:09 #

METRO nutzt doch sogar DX11 also sollte nich besser laufen wie andere Spiele oder ? Also ich erwarte keine 50fps aber 25-30 in 1920x1080 werden machbar sein mit allen Details und ohne FSAA

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 17:16 #

Metro nutzt aber auch Tesselation und PhysX. Letzteres geht mit der ATI schon mal nicht und wird daher von der CPU berechnet - kostet Leistung. Tesselation ist die Spezialität von NV-Karten und läuft mit ATI vergleichsweise schlecht.

Zum Vergleich zu Benchmarkergebnisse von computerbase :

1920x1200 max Details, 4xAA, 16xAF:

ATI 6850: 23,4 FPS
NV GTX580: 44,4 FPS

Ohne FSAA gehts bei der ATI auf 35 FPS hoch, die NV schafft 61 FPS.

Aus eigener Erfahrung: mit einer GTX460OC ruckelt es arg in max. Details und mit Kantenglättung unter DX11. Aber Metro sollte auch kein Maßstab sein..

Ukewa 15 Kenner - 3689 - 10. November 2010 - 18:35 #

Bei der Auflösung braucht man FSAA auch nicht soo dringend.
AA wäre mir wichtiger.

Sebastian Schäfer 16 Übertalent - 5601 - 11. November 2010 - 18:41 #

aber ich finde metro 2033 braucht sowieso zu viel leistung. ich spiele mit einer hd5770 und kann sonst alle spiele in hoher quali in fullhd spielen. aber bei metro musste ich um spielbare frameraten zu bekommen zumindest tiefenunschärfe abschalten. auf dx9 läuft es noch viel besser.

Ukewa 15 Kenner - 3689 - 12. November 2010 - 12:56 #

Auf DX9 fehlt ja auch die Tesselation und einige Schatteneffekte (beides sehr leistungshungrig).

Deathsnake 20 Gold-Gamer - 22556 - 10. November 2010 - 13:54 #

hmm ja schön aber ist die wirklich nötig? hab noch meine 260+ von Gainward und die läuft immer noch gut mit allen an auf 1680x1050...

Wollte eigentlich auf ne 460+ wechseln aber es gibt atm kein Spiel das DX11 wirklich nötig hat und so extrem besser aussieht (Dirt2 sieht auch auf DX10 gut aus...so wirkliche unterschiede muss man mit der Lupe suchen!)

Wart noch auf das PC Spiel wo man wirklich eine DX11 Karte braucht und für das es sich auch lohnt. Aber wird dann auch eher eine 560 werden statt der 580. 200-250 Euro für ne Graka reicht! Mehr ist mir ne Graka ehrlich gesagt net wert!

CrazyChemist 18 Doppel-Voter - - 9005 - 10. November 2010 - 15:31 #

Bin ich der Einzige, der hier irgendwie eine moderat abgewandelte Pressemitteilung von NVidia liest? Es stehen keine nachvollziehbaren Benchmarks oder Quellen fuer die Leitungsangaben zur Verfuegung und das ganze liest sich fuer mich zu wenig objektiv. Dennis wird sich sicher Muehe gegeben haben, aber ich empfinde diesen Artikel als nicht gut geschrieben - sorry!

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 16:16 #

Ich denke, du solltest den Text noch einmal lesen. NV würde ihr Produkt sicher nicht als zu teuer und als nur wenig verbessert bezeichnen. Für die bis eben fehlenden Quellenangaben entschuldige ich mich, die hatte ich tatsächlich vergessen einzufügen (Gamersglobal.de war ein Platzhalter).

Davon abgesehen finde ich es lustig - wenn ich etwas über neue AMD-Karten schreibe bin ich ein AMD-Fanboy (oder gar -Mitarbeiter..). Schreibe ich über Geforce-Modelle liest es sich wie eine Pressemitteilung von NV. Mag ich Windows 7 bin ich Windows-N00b, lobe ich die Bedienung vom iPad bin ich plötzlich bedingungsloser Apple-Freak. Einigt euch mal.

Ich respektiere die Leistung der 580, nett gemacht, vor allem mit dem gesunkenen Lärmpegel. Der Preis ist aber klar überzogen und brauchen tut auch kaum jemand so eine Karte. Das ist eine persönliche Meinung und hat im Text nichts zu suchen. Dort stehen Fakten - höhere Geschwindigkeit im Vergleich zur 480 (wäre auch peinlich wenn nicht) und zur 5870. Niedrigerer Lärmpegel als bei der 480 (nicht schwer) und ungefähr so laut wie eine Mittelklassekarte (6870) von AMD - gut gemacht. 300 Watt Peak-Abwärme so vergleichsweise ruhig zu "entsorgen" hat ein Lob verdient. 300 Watt überhaupt erst zu benötigen nicht. Steht so im Text.

CrazyChemist 18 Doppel-Voter - - 9005 - 10. November 2010 - 16:24 #

Und ich denke, dass ich durchaus lesen UND verstehen kann.
"Die Leistung der GTX580 kann sich sehen lassen."
"kompromisslose Leistung auch in höchsten Auflösungen verlangt, wird mit der GTX580 glücklich"
mal wahllos als Beispiel heraus gepickt. Ich bin halt kein Freund von Superlativen in journalistischer Berichterstattung.
Im übrigen habe ich meine Kritik freundlich und sachlich formuliert und finde solche Sätze, wie Deinen ersten Satz hier doch recht - aehm - arrogant (daher meine zugegebenermaßen ebenso arrogante Replik). Das hast Du sicherlich nicht nötig,oder?
Davon abgesehen ist es jetzt deutlich besser nachvollziehbar wegen der Quellen, dafür ein ausdrücklicher Dank.

icezolation 19 Megatalent - 19280 - 10. November 2010 - 16:26 #

"Ich bin halt kein Freund von Superlativen in journalistischer Berichterstattung."
Dann hättest Du Dir die Frage bezüglich der Pressemitteilung ja somit selbst beantwortet. ;)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 16:42 #

Nun. Aber es stimmt. Momentan muss man keine Kompromisse eingehen - egal was man mit der Karte anstellen möchte. Und sehen lassen kann sich das Ergebnis auch. Dass die Karte auf hohem Niveau dennoch enttäuscht (zu teuer, zu wenig Verbesserungen zur 480) erwähne ich ebenso.

Ansonsten aber ein Dankeschön für die Kritik und die weiterhin freundlichen Worte. :)

Earl iGrey 16 Übertalent - 5093 - 10. November 2010 - 16:35 #

Nimms Dir nicht so sehr zu Herzen... *Schulterklopf* :) Schöner Beitrag! Mir helfen die Hardwarenews bei der Meinungsbildung persönlich weiter und ich finde sie im Gegensatz zu den meisten anderen Hardwareberichten lesbar und verständlich. Um ein Urteil über die Hardware fällen zu können schaue ich mir auch gern subjektive Bewertungen an. Dabei sind Dennis Einschätzungen und die anschließende Sachdiskussion gleichermaßen ausschlaggebend. Ich finde diese Kritik so jedenfalls nicht gerechtfertigt.

Jonas der Gamer 13 Koop-Gamer - 1550 - 11. November 2010 - 13:16 #

Wenn das so ist, bist du bestimmt ein BenQ-Mitarebiter. XD

Dennis Ziesecke 21 AAA-Gamer - 30866 - 11. November 2010 - 13:37 #

Und das, wo ich das Mutterunternehmen Acer doch bei jeder Gelegenheit verfluche..

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 16:11 #

Sorry, die Quellenangaben fehlten. Sind jetzt nachgepflegt.

Industrial 08 Versteher - 204 - 10. November 2010 - 16:35 #

Was jammert ihr eigentlich alle über den Preis? Früher waren die Top Karten doch vergleichbar teuer. Das schnellste Produkt ist unverhältnismäßig teurer zum darunter liegenden Produkt. War immer so und wird auch nicht geändert, weil man ansonsten einen weniger großen aber enorm zahlungskräftigen Kundenstamm verliert. http://de.wikipedia.org/wiki/Snobeffekt

Außerdem ist der Preis in meinen Augen mindestens so lange legitim bis AMD ein adäquates Konkurrenzprodukt anbietet.

Gamerleour (unregistriert) 10. November 2010 - 16:52 #

Je länger man wartet bis der Preis einer Grafikkarte runter geht, desto mehr und bessere Karten sind schon wieder auf dem Markt. LOL

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 17:06 #

Ach was. Übrigens, ich habe hier noch eine ATI Rage+ mit beeindruckenden 2 MB VRAM. Wie wäre es, hat mal 800 Mark gekostet, bekommst sie für 5 Euro :P .

Industrial 08 Versteher - 204 - 10. November 2010 - 17:09 #

Ja.. aber bis die neue AMD raus ist ist dieses Produkt konkurrenzlos. Und auch die muss dann erst mal zeigen wie schnell sie ist, und was sie kostet. Die kochen auch nur mit Wasser.

Sn1p3R_Tim 06 Bewerter - 74 - 10. November 2010 - 17:34 #

@ Industrial set wann macht AMD denn Grakas?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 18:05 #

Seit der Übernahme von ATI vor einigen Jahren. Und mit der aktuellen HD6800-Reihe werden die Karten nicht einmal mehr unter dem Namen ATI verkauft.

Industrial 08 Versteher - 204 - 10. November 2010 - 18:46 #

Merci Dennis Ziesecke.
Wenn man es genau nimmt seit 2006. Ich dachte das wäre mittlerweile allen klar. Selbst hier gab es ne news zur neuen Namenspolitik.

Suche: http://www.gamersglobal.de/news/26706

TSH-Lightning 26 Spiele-Kenner - - 65103 - 10. November 2010 - 19:21 #

In Kürze wird auch die GTX470 durch die GTX570 ersetzt, die ungefähr die Leistung der GTX480 erreichen soll (ca. 5-10% weniger). Die wird dann auch etwas günstiger sein. Hoffentlich spart NV dann nicht beim Kühlsystem...

hollow_ichigo 07 Dual-Talent - 147 - 10. November 2010 - 19:22 #

Man merkt, dass das eine Karte im obersten Hardwarebereich ist: einerseits gut, dass sie einige Verbesserungen geschafft haben (is ja auch der Sinn des Ganzen?!), aber bei dem Preis und dem Verbrauch is klar: ohne mich ^^ ... ich bin zwar am überlegen, welche Karte ich mir als nächstes holen sollte, aber das liegt außerhalb meines Geldbeutels...

Marco Büttinghausen 20 Gold-Gamer - 20481 - 10. November 2010 - 19:31 #

Prima Artikel, hatte mir gestern auch mal den Test von Computerbase durchgelesen, ich finde das klingt alles ziemlich gut, ich vermute nach dem Desaster der 480 gab es einige "Lessons learned"-Meetings bei Nvidia, daher diesmal gottseidank auch kein weiterer paper launch. Ich hatte ja schon länger auf eine überarbeitete Version der 480 gehofft, ob diese nun 485 heißt, oder aus Druck durch AMD nun 580 heißt, ist mir eigentlich egal, die Zeiten wo jede neue Generation auch neue Features unterstützt hat, ist eh schon lange vorbei.

Mir kommt die Karte jedenfalls gelegen, ich wollte Fallout3 demnächst endlich mal mit allen HD-Mods weiterspielen.

Für 30-Zoll Monitore (2560x1600) scheint mir die Performance aber noch nicht ausreichend.

EDIT: Eine Frage noch, weiss jemand ob die Karte neben DVI auch einen Displayport hat?

Industrial 08 Versteher - 204 - 10. November 2010 - 19:37 #

Ich meine zwei DVI und einen HDMI (Edit: Mini-HDMI mit 1.4a Standard)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 19:49 #

So ist es. Warum das Referenzdesign auf Displayport verzichtet ist mir allerdings schleierhaft. Und mittlerweile fände ich Multimonitorbetrieb für drei Bildschirme wie bei AMD schon seit einem Jahr geboten auch angebracht.

Marco Büttinghausen 20 Gold-Gamer - 20481 - 10. November 2010 - 20:32 #

Liegt vermutlich daran das wie von dir schon erwähnt, der Chip von Fermi 100 auf 110 nicht wirklich verändert wurde, aber angebracht wäre es.

Followup-Frage dazu, früher musste man um einen 30''-Monitor anschließen zu können 2 Ports verbinden, mit Displayport sollte dies wegfallen, ist dies bei aktuellen DVI-Achschlüssen noch notwendig, oder liefern die mittlerweile die nötige Bandbreite?

Und Danke für die Antworten.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. November 2010 - 20:49 #

DVI-D in der Dual-Link-Version packt auch 30" und entsprechende Auflösungen.