Schnell, teuer, 28nm: AMD Radeon HD 7970

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

23. Dezember 2011 - 8:11 — vor 12 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Sonderlich ereignisreich war das Jahr 2011 nicht für Freunde schneller Grafikkarten. Bis vor kurzem sah es auch so aus, als wenn das Jahr ebenso ereignislos enden würde. Doch es gerieten Gerüchte in Umlauf, dass AMD noch im Dezember seine neuen HD7000-Desktopmodelle vorstellen wolle. Und tatsächlich, am heutigen 22. Dezember war es soweit - zumindest theoretisch. Testberichte, Benchmarks, technische Daten: An Informationen herrscht kein Mangel, einzig die Karten fehlen noch. AMD gibt an, am 09. Januar 2012 geringe Stückzahlen des neuen Topmodells auf den Markt bringen zu wollen.

Technische Daten

Wer kompromisslose Leistung verlangt, dürfte mit der AMD Radeon HD 7970 durchaus glücklich werden. Um es vorweg zu nehmen, AMD präsentierte die mit Abstand schnellste Single-GPU-Grafikkarte und zeigt zudem eine für das Unternehmen komplett neue Systemarchitektur. Die insgesamt 2048 neuen Shadereinheiten (Takt: 925 MHz) sollen dabei deutlich effizienter angesprochen werden können, als das bei den älteren Modellen der Fall war. Angesichts der bei einigen Spielen recht niedrigen Leistung auf AMD-Grafikkarten - wohl auch bedingt durch den Mehraufwand für die Programmierer, die Spielengine auf die etwas eigenwilligen Shader von AMD zu optimieren - dürfte diese Entscheidung nicht falsch gewesen sein. Neben den zusätzlichen Shadereinheiten konnte AMD auch ein breiteres Speicherinterface implementieren. Statt 256 Bit ist es bei der HD 7970 nun 384 Bit breit und transportiert bei einem Takt von 2750 Megahertz satte 264 Gigabyte pro Sekunde. Aufgrund des "krummen" Speicherinterfaces fällt auch die Speichermenge etwas exotisch aus - satte 3 Gigabyte GDDR5-RAM verbaut AMD auf dem Topmodell der neuen Serie. Da auch die HD 7950 ein 384 Bit breites Speicherinterface nutzen soll, dürften es bei dieser preiswerteren Karte wohl wahlweise 1,5 GB oder auch 3 GB werden.

Gesteigert wurde auch die Anzahl der Textureinheiten. Nutzten die Vorgänger noch maximal 96 TMUs, sind es jetzt 128 Einheiten. Bei den ROPs gab es keine Steigerung, es sind weiterhin 32 Rasterendstufen vorhanden. Dank des schneller angebundenen Speichers sollen diese Einheiten aber effektiver genutzt werden können. AMD teilte mit, dass bei den Vorgängerchips aufgrund von Speicherengpässen oft nur maximal 24 ROPs aktiv waren. 

Wie auch Nvidia trimmt AMD seine neuen Grafikchips auf den universellen Einsatz - also nicht nur im Gaming-PC sondern auch in Supercomputern. Zu diesem Zweck kann der Grafikspeicher auch mit der ECC-Fehlerkorrektur ausgestattet werden. Zusätzlich verbaut AMD noch leistungssteigernden Cache-Speicher im Grafikchip. Knapp über 8 Megabyte sehr schnellen Zwischenspeichers sind so auf der GPU vorhanden, aufgeteilt auf die einzelnen Shadercluster. Dieser Speicher nimmt auch einen guten Teil der insgesamt 4,3 Milliarden Transistoren der GPU in Anspruch. Schon Nvidias GF110, besser bekannt als Geforce GTX580, nutzt On-Chip-Cache um GPGPU-Berechnungen für professionelle Anwender zu beschleunigen und kommt so auf 3 Milliarden Transistoren. Trotz seiner 28nm-Fertigung ist der Tahiti-Chip der HD 7970 also alles andere als klein und überschaubar, AMD geht mit den Karten der Southern-Island-Baureihe offenbar weg von den preiswert zu produzierenden und kleinen GPUs. 

Überzeugende Performance

Dafür überzeugt die GPU bei der Leistung. Im Vergleich zum Vorgänger Radeon HD 6970 sind Leistungsgewinne von bis zu 40 Prozent messbar, Nvidias Gegenspieler Geforce GTX 580 wird im Mittel um bis zu 20 Prozent geschlagen. Einige Spiele liegen der neuen AMD-Karte allerdings eher als andere - Computerbase konnte bei Trackmania 2: Canyon messen, dass die Radeon sich sogar hinter der GTX 580 einordnen musste. Anno 2070 liegt der 7970 allerdings umso mehr: In 2560 x 1600 lag die Radeon bis zu 67 Prozent vor Nvidias GTX 580. Auch Batman: Arkham City und The Elder Scrolls: Skyrim liegen der AMD-Karte sehr gut. Und auch bei den bildverbessernden Optionen AA und AF konnte AMD den Qualitätsrückstand zu Nvidia aufholen und filtert jetzt ebenfalls auf sehr hohem Niveau und in guter Geschwindigkeit.

Besonders stolz sind die Entwickler bei AMD auf die gesteigerte Tesselation-Leistung. Und tatsächlich, reale Spiele mit starkem Tesselation-Einsatz konnten tatsächlich stark an Leistung zulegen. Zumindest im Vergleich zu den Vorgängern aus eigenem Hause, dafür liegt AMD mit der HD 7970 jetzt auf dem Niveau von Nvidias GTX 580 was die Tesselation-Leistung angeht. 

Ein Glanzpunkt der neuen AMD-Karte ist aber der Energiebedarf. Angesichts der überzeugenden Performance ist eine maximale Energieaufnahme von knapp 210 Watt mehr als nur respektabel. Im Windows-Betrieb, also ohne Grafiklast, sinkt der Bedarf auf nur knapp 15 Watt - ebenfalls eine gute Leistung. Weniger überzeugen kann die Karte allerdings, wenn mehr als ein Monitor angeschlossen ist. Fast 60 Watt sind in dieser mittlerweile nicht mehr seltenen Konstellation einfach zu viel - ein Problem, mit dem auch Nvidia zu kämpfen hat. Auch bei der Wiedergabe von HD-Videos benötigt der Chip zu viel Energie. Punkten kann AMD allerdings wenn der Rechner längere Zeit gar nichts zu tun hat. Sobald auch der Monitor in den Stromsparmodus geht, schaltet sich die Grafikkarte fast komplett selbst ab und benötigt nur noch knapp 3-5 Watt. Freunde von Multi-GPU-Konfigurationen sparen dank dieser ZeroCore genannten Technologie enorm Energie - hier arbeitet im Windows-Modus tatsächlich nur eine Grafikkarte, die restlichen verbauten Karten schalten sich komplett ab.

Laut unter Last, leise im Alltag

Durch ruhige und technisch beeindruckende Lüfter sind AMD-Grafikkarten noch nie aufgefallen. Für die HD 7970 hat sich der Hersteller zwar durchaus ins Zeug gelegt und ein System mit Verdunstungskammer verbaut, unter Last dröhnt die Karte aber dennoch mit inakzeptablen 3,5 Sone. Dafür ist die Karte im Idle sehr ruhig - nur 0,3 Sone sind kaum hörbar und nur schwer aus einem PC-Gehäuse herauszuhören. Wer sich für die Radeon HD 7970 interessiert, sollte daher besser auf die voraussichtlich im Januar oder Februar 2012 erscheinenden Custom-Modelle der Grafikkartenhersteller warten. Hier werden sicherlich auch zahlreiche OC-Versionen der Karte auf den Markt kommen - das Übertaktungspotential der neuen GPUs ist laut Computerbase sehr hoch und geht zudem mit einer überzeugenden Leistungssteigerung einher. Da die Energieaufnahme der Grafikchips recht moderat ausfällt, steht leisen OC-Versionen von Herstellern wie Gainward, Asus oder Gigabyte also nichts im Wege. 

Nun, eventuell steht doch etwas im Wege. Unter Umständen die Lebenspartnerin, die gerade eure Kredit- oder EC-Karte verbrennt, denn AMD verlangt stolze Preise für die Radeon HD 7970: Avisiert sind 500 Euro für das Topmodell. Dieser Preis wird zwar mit steigender Verfügbarkeit schnell um 40-70 Euro fallen, dennoch bleibt ein stolzer Restbetrag. Zumal nur wenige Anwender die brachiale Leistung der neuen Karten wirklich benötigen. AMD liefert allerdings gleich ein paar zusätzliche Argumente und betont die Fähigkeit, an einer Karte auch mit drei Monitoren gleichzeitig in stereoskopischem 3D spielen zu können.

Fazit

Schnell und teuer - Highend-Fans dürfte diese Kombination bekannt vorkommen. Trotz Leistungsgewinnen von bis zu 40 Prozent im Vergleich zum direkten Vorgänger hätte der Umstieg auf eine neue Architektur auch höhere Leistungsgewinne mit sich bringen können. Daher regiert vorerst Enttäuschung auf hohem Niveau. Mit Optimierungen am Treiber dürfte AMD noch einmal bis zu 15 Prozent Mehrleistung aus den neuen GPUs quetschen können und ein überarbeitetes Stepping der GPU könnte für weitere Verbesserungen sorgen. Auch bei der 7970 gilt die alte PC-Weisheit: Wer stets die teuerste Hardware kauft, ärgert sich schnell über sinkende Preise. Für die meisten Anwender dürfte wohl der für das kommende Jahr geplante Release der HD 7950 oder auch der Performance-Klasse HD 78x0 interessanter sein als die HD 7970. Allerdings bietet das Topmodell einen guten Ausblick auf die kommenden Modelle, so dass sich die Leistung in etwa abschätzen lässt. So wird eine HD 7950 mit geschätzt 10 Prozent weniger Shadereinheiten und gesenkten Taktraten wohl in etwa das Leistungsniveau der Nvidia GTX 580 erreichen, während die kommenden HD 78x0 sich mit der GTX 570 und der HD 6970 duellieren dürften. Wer bei der Leistung auch Kompromisse eingehen kann, sollte daher noch ein wenig mit dem Kauf warten. Und wer sehr geduldig ist, kann auch auf Nvidias Kepler-GPUs warten, allerdings sollen die Kepler-Topmodelle erst im Sommer oder Herbst kommenden Jahres erscheinen.

Ekrow 15 Kenner - 3353 - 22. Dezember 2011 - 22:34 #

Dear Santa,...

Larnak 22 Motivator - 37541 - 22. Dezember 2011 - 23:17 #

Das klingt doch zumindest grundsätzlich nach einem brauchbaren Chip :)
Fehlt nur noch ein üppiger Geldbeutel sowie eine angenehm leise Kühlung zum Glück :P

"nur 0,3 Watt" an der Stelle sind Sone gemeint, oder?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 23. Dezember 2011 - 0:34 #

Jepp, ist geändert - danke :) .

rAmbAzAmbA 17 Shapeshifter - 7391 - 23. Dezember 2011 - 0:59 #

Ich hab da mal ne Frage :D

Kannst du in etwa eine Prognose machen, was das für den "Normalo" in etwa bedeutet? Also im Bezug auf Grafikkarten um die 200€ für 2012?
Ist es sehr wahrscheinlich von diesem Top Modell eine kleinere Version zu bauen, die halt günstiger ist, aber dabei noch genug Leistung hat ( aber spürbar mehr, wie aktuelle Karten in dem Bereich ich sag mal TI560 )

Verkürzt meine ich, sind die Erhöhung der Shadereinheiten oder der Speicheranbindung in der Produktion sehr kostenintensiv? Oder könnte da bald eine Hammer 200€ Karte erscheinen, die kaum Strom braucht. Oder würde dies eh nutzlos, sobald der Takt gesenkt wird, da z.B. das Speicherinterface dann eh unterfordert wäre.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 23. Dezember 2011 - 1:09 #

Je nachdem, wie sich die Ausbeute bei der 28nm-Fertigung entwickelt, wären im Frühjahr durchaus gute 200-Euro-Performancekarten machbar. Wie schnell die dann sind und welche technischen Daten sie haben wird? Glaskugel..

Generell: Ein breiteres Speicherinterface erhöht durchaus die Kosten, da die Platine aufwändiger wird. 256 Bit wären wohl bei der Performance-Klasse auch auf Dauer realistisch - macht auch Nvidia nicht anders bei der 560 TI. Bei guter Ausbeute von TSMC könnte ich mir 200-Euro-Karten mit der Leistung einer 6970 in 28nm vorstellen, der Energiebedarf dürfte dabei wohl kaum über 140-150 Watt unter Last liegen, vielleicht darunter - im Idle dann halt bei 13-15 Watt und mit ausgeschaltetem Monitor die jetzt schon gezeigten 3-5 Watt.

Was mich aber massiv stört: Auch bei AMD geht mittlerweile die Unsitte um, dass im Multimonitorbetrieb der Idle-Energiebedarf stark ansteigt - bei der 7970 auf fast 60 Watt statt 15 Watt. Das stört mich ungemein und ist auch angesichts der guten Eignung der Karte für Multimonitoring einfach nur doof.

rAmbAzAmbA 17 Shapeshifter - 7391 - 23. Dezember 2011 - 2:10 #

Vielen Dank :) Mein Problem bei den aktuellen Karten war eigentlich, das sich seit meiner momentanen 4850 über 5850 zu 6950 ( und was es da so alles gab ) in meinen Augen irgendwie nicht soviel getan hat ( also spürbar in Höhen Auflösungen mit AA/AF, was aber für mich nicht relevant ist ). Es fühlte sich immer irgendwie so an, als wäre es die gleiche Karte, nur mit anderem Namen. Klar DX11 kam dazu, nur ist das ja noch immer kein Kaufgrund, wegen fehlender Spiele, bzw. wenn es dann DX11 gab war es oft vermurkst. Ich hoffe dann mal auf eine 7850 (??), am besten passiv gekühlt mit guter Leistung für 2012 :D

Larnak 22 Motivator - 37541 - 23. Dezember 2011 - 14:31 #

Mh, also nach meiner Erinnerung war es von 4xxx zu 5xxx doch ein recht großer Sprung, oder irre ich mich? Was durchaus sein könnte, da ich eine 4xxx nie gehabt habe ...

Dennis Ziesecke 21 AAA-Gamer - 30866 - 23. Dezember 2011 - 15:17 #

Doch, der Sprung von 4xx0 auf 5xx0 war recht beachtlich. Vor allem wer von einer 4850 auf eine 5850 aufgerüstet hat, konnte sich über spürbare Mehrleistung freuen. Die 4850 lag ja teils sogar unter der 5770. Zur 6000er gabs dann (gefühlt) weniger Mehrleistung, was aber auch daran gelegen haben könnte, dass die 68x0 im Großen und Ganzen der 58x0 entsprach - zumindest was die Leistung angeht. Wer zusätzliche Leistung wollte, musste da halt zur 69x0 greifen.

bolle 17 Shapeshifter - 7789 - 23. Dezember 2011 - 2:53 #

Und meine 4 Jahre alte 3850 in 55nm machts immer noch :)

Hadley (unregistriert) 23. Dezember 2011 - 6:31 #

Laut + AMD = Schlecht. Totale Geldverschwendung, wer braucht solche lächerlichen Karten,w enn 99,8% der Spiele sowiso Konsoelengrafik haben.

Anonymous (unregistriert) 23. Dezember 2011 - 9:03 #

",w enn 99,8% der Spiele sowiso Konsoelengrafik haben."
jo, und wenn sie damit besser aussehen als 98% aller pc spiele. schlimm, schlimm das alles.

raumich 16 Übertalent - 4673 - 23. Dezember 2011 - 9:03 #

Ganz so krass würde ich es nicht formulieren aber ich frage mich auch, warum ich ne neue Karte brauche, wenn selbst grafisch aufwändige Sachen wie Battlefield 3 in 1920x1080 flüssig laufen.

tintifaxl 13 Koop-Gamer - 1222 - 23. Dezember 2011 - 9:35 #

Du wirst sie augenscheinlich nicht brauchen. Bei mir sieht es etwas anders aus: Cliffs of Dover wäre der Kaufgrund für mich. Da ist derzeit auch eine GTX580 mit 3 GB Ram noch nicht genug für 1920x1080 inkl. AA und AF. Und in Arma2 könnte ich die Sichtweite noch weiter raufschrauben.

wil82 09 Triple-Talent - 242 - 23. Dezember 2011 - 22:21 #

Das liegt aber sicher nicht an deiner Karte, sondern an der Optimierung der Spiele, habe beide selber und weis das die am Anfang auf keinem Systemen flüssig liefen. Mittler weile geht es nach 1000 Patches zwar besser aber immer noch nicht perfekt.

tintifaxl 13 Koop-Gamer - 1222 - 24. Dezember 2011 - 15:33 #

Die 580er bringt die beiden Programme schon auf Touren - ich selbst habe eine GTX570 und hatte eine 3 GB 580er ausgeborgt um sie anzutesten. Mir war der Leistungsgewinn allerdings zu klein um mir selbst eine zuzulegen.

Wir werden sehen, was die neue Grafikengine für CloD bringt, wenn sie denn mal fertig wird. Nichtsdestotrotz denke ich, werden die Simulationen immer von der schnellsten Hardware profitieren und somit auch von der 7970er. Und wenn die auch in CloD 20% schneller ist als die GTX580, ist sie ein ernsthafter Kandidat die Nachfolge meiner 570er anzutreten.

Worth2die4 14 Komm-Experte - 1852 - 23. Dezember 2011 - 11:44 #

Hm, eventuell wird meine nächste Karte ja doch mal wieder eine ATi :-)

Talakos 16 Übertalent - P - 5417 - 23. Dezember 2011 - 14:17 #

Gamestar sagt der Karte laute 5,0 Sone an, hier nur 3,5 Sone.. Gut das is beides sehr laut, aber was soll man jetzt eher glauben?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 23. Dezember 2011 - 14:22 #

Wird auf die Messmethode ankommen. So sehr ich die Gamestar auch schätze, ich verlasse mich bei solchen Daten - zumindest wenn ich selbst nicht die Möglichkeit eines eigenen Tests habe - eher auf Heise. Gut möglich, dass die GS unter voller Last getestet hat, dann wäre es aber Werte die im Alltag nie auftreten - und damit für den Nutzer unerheblich.

Talakos 16 Übertalent - P - 5417 - 23. Dezember 2011 - 14:27 #

Ok, danke Dennis :)

Jadiger 16 Übertalent - 5509 - 23. Dezember 2011 - 18:59 #

Sollen übrigens nicht 3,5 Sone sein sondern 5,0 Sone. So wers sie leise als eine standart GTX 580 die hat 3,8.
Und klar war es das sie schneller sein muss als die GTX580 sonst wers ja lächerlich aber 550 Euro ist von AMD die preisempfelung und bis jetzt können sie es ja machen ist ja die schnellste singel GPU. Ich würd sagen wartet einfach mal ab was Nvidia dazu bringt sollste Nvidia keinen absoluten bullshit bauen schaffen die locker die maximal 25% Mehrleistung und die Preise fallen auch.
Aber der Preis ist viel zuhoch mal schauen was die andern Hersteller mit der Lautstärke und den Temps schaffen.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 23. Dezember 2011 - 19:36 #

Wie oben schon erklärt: Die 3,5 Sone sind der realistische Maximalwert beim Spielen. Auf 5 Sone kommt man mit Stresstests wie Furmark - und das auch nur, wenn man die Karte daran hindert, sich automatisch zu drosseln. Ich halte die 3,5 Sone für deutlich realistischer im Alltag des GG-Nutzers. Nichts gegen Furmark - aber lässt du den die ganze Zeit laufen? Meine GTX460 ist im Furmark auch abartig laut, wenn ich arbeite oder zocke höre ich die Karte allerdings kaum. Soll ich den Leuten jetzt von der Karte wegen zu hoher Lautstärke abraten oder eher die gute Lautstärke loben? Stresstest vs. Alltag - da entscheide ich mich lieber für den Alltag. Die Gamestar sieht das anders - ok. Heise.de setzt mehr auf meine Sichtweise - daher habe ich mangels eigener Karte die Werte von Heise übernommen.

Wenn du auf NV warten willst brauchst du wohl noch viel Geduld. Die schnellen Kepler-Modelle sollen erst im Herbst erscheinen. Eine Ewigkeit im Grafikkartenmarkt.

Azzi (unregistriert) 23. Dezember 2011 - 21:00 #

Hmm beispielsweise Battlefield 3 geht auch sehr auf die GPU, ist bei meiner GTX560TI zumindest das einzige Spiel wo der Lüfter am Limit läuft, würde nicht ausschließen dass das auch bei dem neuen ATI Monster der Fall ist.

Im Grunde isses aber egal ob 3,5 oder 5 Sone beides ist ziemlich laut, ohne Kopfhörer würde mich das nerven. Gibt wie gesagt aber bestimmt modifizierte Varianten oder für Bastler sind beispielsweise die Kühler von Scythe sehr gut.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 23. Dezember 2011 - 21:12 #

Am Limit wird der trotzdem nicht laufen. Bisher gibt es kein Spiel, das wirklich alle Funktionseinheiten komplett ausreizt - das machen nur synthetische Benchmarks oder Stresstests. Und das ist auch ganz gut so ;) .

Larnak 22 Motivator - 37541 - 23. Dezember 2011 - 21:51 #

Dabei betont gerade die GameStar doch bei CPU-Tests beispielsweise immer, dass man ja extra alltagstaugliche Testumgebungen wähle, indem man nicht versuche, den Einfluss der Grafikkarte auf die FPS-Rate weitgehend zu minimieren, sondern eben unter normalen Einstellungen teste ...

Dennis Ziesecke 21 AAA-Gamer - 30866 - 23. Dezember 2011 - 22:31 #

Bei Tests kommt manchmal - aber nur manchmal - auch darauf an, in welches licht man ein produkt rücken möchte. das mag ich der gs bei der 7970 jetzt nicht unterstellen - aber anderen Publikationen durchaus.

Maddino 18 Doppel-Voter - 10766 - 24. Dezember 2011 - 5:03 #

Wenn doch AMD und NVIDIA nur endlich ihre Alleinstellungs-Technologien miteinander teilen würden. Ich hätte gerne eine AMD-Karte, die mit den gängigen 3D-Monitoren arbeitet und einige NVIDIA-Nutzer hätten bestimmt auch gerne die Möglichkeit, mehr Monitore an ihre Karte anzuschließen.

AMD und Intel kriegen den Technologietausch doch auch hin :/

Dennis Ziesecke 21 AAA-Gamer - 30866 - 24. Dezember 2011 - 8:24 #

Dann kannst du dich freuen: Ich kann an eine NV-Karte auch Polfilter-3D-Monitore anschließen und benutzen. Dann funktioniert nur 3D-Vision nicht, ich muss also auf die auch von AMD genutzten Third-Party-Lösungen wie TriDef zurückgreifen. Alternativlos ist man bei NV eher, wenn man eine wirklich gut funktionierende 3D-Lösung wie 3D-Vision haben möchte. Anders herum habe ich es noch nicht ausprobiert, keine Ahnung, wie sich Shutterbrillen anderer Hersteller mit 3D-Vision-Monitoren verhalten. Ein wenig zweideutig klingt dafür deine Aussage "einige NVIDIA-Nutzer hätten bestimmt auch gerne die Möglichkeit, mehr Monitore an ihre Karte anzuschließen." - Du meinst sicher "3D-Monitore" oder? Ansonsten funktioniert ja jeder Monitor. Wobei, auch in 3D, nur halt mit Einschränkungen. Und ich kann nachvollziehen, dass NV mit 3D-Vision lieber ein geschlossenes aber dafür funktionierendes System entwickelt.

CUDA ist mittlerweile übrigens auch frei und kann mit AMD-Grafikkarten genutzt werden. PhysX hat NV wohl zu viel Geld gekostet um es freizugeben, wobei auch das wahrscheinlich nur eine Frage der Zeit sein dürfte.

Mitarbeit
ChrisL