nVidia: Neuer Forceware-Treiber 191.07 (WHQL)

Bild von Name
Name 0 EXP - Neuling
6. Oktober 2009 - 11:21 — vor 7 Jahren zuletzt aktualisiert

Gestern hat der Grafikkartenhersteller nVidia seine Forceware-Treiber aktualisiert. Die neue Version 191.07 trägt das Microsoft-WHQL-Zertifikat und unterstützt alle Grafikkarten ab der GeForce 6 aufwärts sowie ION-Chipsätze. OpenGL 3.2, CUDA und die neue PhysX-Software 9.09.0814 sind ebenfalls in dem Treiber enthalten. Geeignet ist die Software für alle Nutzer von Windows XP, Vista und 7 (jeweils 32- und 64-Bit).

Die Liste der Änderungen ist wieder sehr umfangreich. Neben Performance-Verbesserungen in einigen Spielen und generellem Bugfixing wird auch SLI-Unterstützung für ausgesuchte Programme bereitgestellt.

Changelog Forceware 191.02:

  • Fügt Unterstützung für OpenGL 3.2 für GeForce Grafikprozessoren der Serien 8, 9, 100 und 200 hinzu.
  • Bis zu 12 % mehr Leistung bei ARMA 2
  • Bis zu 8 % mehr Leistung bei Batman - Arkham Asylum mit aktivierter PhysX Technologie
  • Bis zu 50 % mehr Leistung bei Call of Juarez: Bound in Blood mit aktivierter SLI Technologie
  • Bis zu 14 % mehr Leistung bei Fallout 3 (Innenszenen) mit aktivierter Kantenglättung
  • Bis zu 10 % mehr Leistung bei Far Cry 2 (DX9 Version) mit aktivierter Kantenglättung
  • Bis zu 34 % mehr Leistung bei Prototype mit aktivierter Kantenglättung
  • Fügt Unterstützung für SLI Technologie bei Aion, Darkfall, Dawn of Magic 2: Time of Shadows, Dreamkiller, Fuel, Majesty 2: The Fantasy Kingdom Sim, Need for Speed: Shift und weiteren hinzu.
  • Zahlreiche Bugs behoben
Marco Büttinghausen 19 Megatalent - P - 19331 - 6. Oktober 2009 - 13:38 #

Feine Sache, wird heute Abend installiert, aber das diese SLI-Profile zum Teil erst Monate nach dem Spiel raus kommen ist für mich ein Grund auf SLI zu verzichten. Vielleicht kann ja Hardware-Guru Dod was dazu sagen? :-D

SynTetic (unregistriert) 6. Oktober 2009 - 13:43 #

Da kann nVidia ja nur teilweise was für: Wenn die Entwickler das nicht von vornherein einprogrammieren, finde ich es immer noch eine feine Sache, wenn sowas dann von Hardware-Hersteller per Treiberupdate automatisch mitgeliefert wird.

Dennis Ziesecke Freier Redakteur - P - 29622 - 6. Oktober 2009 - 14:05 #

Ich würde generell auf SLI verzichten. Wozu auch SLI? Man fährt sich nur Probleme ein und hat recht wenig effizienten Nutzen davon. SLI kostet Geld, mehrfach: Ich brauche zwei Grafikkarten oder ein teures Dual-GPU-Modell und habe damit erhöhten Energiebedarf, eventuell benötige ich ein stärkeres Netzteil. SLI kostet Nerven: Der Rechner wird lauter, da jetzt zwei Lüfter (oder ein deutlich stärkerer) die Abwärme aus dem Rechner transportieren müssen. Und dann sind da die SLI-Profile, die auch oft erst mit der Zeit angepasst werden.

Mehrleistung? Doppelte Kosten aber nur knapp 30-40% zusätzlicher Leistung, das steht in keinem Verhältnis. Dazu kommen Mikroruckler, die ein flüssiges Spiel dann auf einmal hässlich machen.

Und wofür? Wer bitte kauft sich denn später eine zweite Grafikkarte für SLI dazu? Kaum jemand, da zu diesem Zeitpunkt oft schon preiswerte Nachfolgemodelle mit mehr Leistung als im SLI erreichbar wäre auf dem Markt sind. Aktuell die HD5870 von ATI, welche nur knapp von einem nVidia GTX285-SLI-Gespann geschlagen wird. Sichtbar ist das auch nur, wenn man mit exorbitanten Auflösungen spielen sollte.

Es soll auch SLI-Systeme mit zwei Mittelklassekarten geben. Noch grausamer - mehr Mikrogeruckle und weniger Power als mit einer nicht einmal teureren Performancekarte.

SLI und Crossfire sind in meinen Augen unnütz wie nichts gutes und primär dazu da, um reichen Kindern die Kohle aus der Tasche zu ziehen.

SynTetic (unregistriert) 6. Oktober 2009 - 14:13 #

Ich stimme dir zu, bis auf eine Ausnahme: Bei sehr hohen Auflösungen (2560x1600) bringt mir ein SLI-System aus zwei Geforce GTX 285 mehr als jede SingleGPU-Grafikkarte. Natürlich bleibt das ein teurer Spaß, aber hier ist es oftmals auch schlicht erforderlich, denn eine Auflösung von "nur" 1680x1050 sieht auf einem 30-Zöller grausam aus und 1920x1200 lässt sich nicht mit jeder SingleGPU verwirklichen. Ich bin gespannt, was die neuen DirectX 11-Karten leistungsmäßig so bringen werden.

Dennis Ziesecke Freier Redakteur - P - 29622 - 6. Oktober 2009 - 14:36 #

Gerade die HD5870 kommt besonders bei so hohen Auflösungen gefährlich nahe an die SLI-Gespanne heran. Bei einem Viertel des Energiebedarfes (im Idle sogar nur Bruchteile), deutlich geringerer Lärmentwicklung und dazu noch mit DX11-Effekten.

SynTetic (unregistriert) 6. Oktober 2009 - 14:43 #

Wie gesagt: Deswegen freue ich mich ja auch auf die kommende Grafikkartengeneration. DirectX 11 ist - vorläufig - nur ein optionales Zückerchen.

Marco Büttinghausen 19 Megatalent - P - 19331 - 6. Oktober 2009 - 14:53 #

Ich stimme dir eigentlich in allen Punkten zu, von Geld, Lärm und Energie mal abgesehen, stört mich vor allem die Leistungsausbeite. z.T.unter 50% bei Dual und noch weniger bei Triple-SLI sehe ich auch nicht ein.

Warum ich SLI trotzdem im Auge behalte ist die Tatsache das ich vermute das sich Prozessoren nicht beliebig weiter verkleinern lassen, bei CPUs geht die Reise schon seit Jahren zu Mehrkern-Systemen, ich vermute das dies recht bald auch bei GPUs passieren wird. Evtl. passiert das dann aber direkt alles auf einer Platine und ich muss nicht zwei Karten kaufen, mal sehen.

Dennis Ziesecke Freier Redakteur - P - 29622 - 6. Oktober 2009 - 15:07 #

Das ist ja quasi schon passiert. Intels Larrabee setzt auf zig kleine x86-Kerne in einer GPU. Und auch die Streamprozessoren aktueller Grafikkarten sind nur kleine, spezialisierte Kerne. So betrachtet nutzen aktuelle Grafikchips also schon bis zu 18 Kerne und bieten ja in einigen Anwendungen auch entsprechende Rechenleistungen gegenüber herkömmlichen aber trägen CPUs.

Mehrere GPUs auf eine Platine zu löten ist und bleibt nur eine Nischenlösung, meist aus der Not geboren um den Mitbewerbern nicht das Feld zu überlassen.

SynTetic (unregistriert) 6. Oktober 2009 - 15:11 #

Ich finde die Idee von Marco durchaus nachvollziehbar: Glaubst du, Dod, wirklich, dass mehrere GPUs langfristig keine Lösung wären?

Dennis Ziesecke Freier Redakteur - P - 29622 - 6. Oktober 2009 - 15:22 #

Nein. Siehe meinen Text weiter oben. Das ist Mukki-zeigen unter Herstellern. "Ich hab die Längste" für GPU-Produzenten. Effektiv ist das nicht und wird daher auch meiner Meinung nach keine grandiose Zukunft haben. Alleine die Tatsache, dass die doppelte Menge VRAM vorhanden sein muss, da jede GPU auf ihren eigenen Speicher zugreift - no go, zu teuer, zu ineffizient, zu warm, zu laut - nur was für leicht zu beeindruckende Gamerkinds IMO.

SayWhatTF 15 Kenner - 3451 - 6. Oktober 2009 - 16:55 #

Und was ist mit einer Zweitkarte als PhysX-Beschleuniger?

Dennis Ziesecke Freier Redakteur - P - 29622 - 6. Oktober 2009 - 17:13 #

Das hat ja mit SLI an sich wenig zu tun und funktioniert gnädigerweise sogar ohne SLI-Board.

Trotzdem, auch das ist ein Einsatzbereich für Freaks, Nerds, Leute mit zu viel Geld oder Zeit oder beidem. Jeder *normale* Anwender wird nur eine Karte im System haben, wenns ne ATI ist, dann sollte man auf ATIs Bemühungen bezüglich der Bullet-Engine hoffen.

Ich sehe mich selbst und meinen heldenhaften PhysX-Selbstversuch in den kommenden Tagen auch eindeutig nicht als "normalen User", was hier an Technik herumsteht ist absolut nicht repräsentativ ;) . Und nicht jeder hat ne 9600GT mal so rumliegen, 60-70 Euro nur für Physikspielereien + erhöhten Energiebedarf mag auch nicht jeder investieren.

SynTetic (unregistriert) 6. Oktober 2009 - 20:56 #

Hmm... ich bin mir da nicht sicher. Was ist, wenn materialtechnisch einfach nichts mehr drin ist? Dann kann man doch nur noch die Anzahl der zu verbauenden Teile erhöhen.

Dennis Ziesecke Freier Redakteur - P - 29622 - 6. Oktober 2009 - 21:13 #

Wo ist (ausser in der etwas kniffligeren Wärmeableitung) denn der Vorteil mehrerer GPUs auf einer Karte anstelle eines Chips mit entsprechend zusätzlichen Funktionseinheiten?

SynTetic (unregistriert) 6. Oktober 2009 - 21:17 #

Ich sag ja: Was ist, wenn man aus einer GPU nicht mehr Mehr herausholen kann? Dann kann man die Leistung doch nur erhöhen, indem man die anfallenden Aufgaben auf mehrere GPUs verteilt, oder?

Dennis Ziesecke Freier Redakteur - P - 29622 - 6. Oktober 2009 - 21:22 #

Man muss dabei aber auch immer sehen, wie effizient das ist. Und den VRAM einfach mal doppelt zu verbauen ist nicht effizient. Zumal das Abwärmeproblem ja auch mit zwei GPUs nicht aus der Welt ist. Momentan wirds als Notlösung genutzt. Notlösungen waren aber noch nie wirklich alltagstauglich und werden es oft auch mit viel Bastelei nicht. Dein Argument ist ja sowieso ein sehr theoretisches. Da könnte ich auch genauso gut kontern : "Wenn man aus einer herkömmlichen GPU nichts mehr herausholen kann, ist längst ein Quantencomputer für den Privatbesitz erschwinglich". Ist genauso theoretisch ;) .

SynTetic (unregistriert) 6. Oktober 2009 - 21:28 #

Nunja, alle Zukunftsspekulationen sind immer auch theoretischer Natur. Deswegen ist es ja immer spannend Mutmaßungen anzustellen, nur um hinterher feststellen zu müssen, dass am Ende doch alles anders kommt. ;)

Marco Büttinghausen 19 Megatalent - P - 19331 - 6. Oktober 2009 - 17:18 #

Ok, das leuchtet mir ein, wenn wir aber in ein paar Jahren mal bei Baugrößen von 18 oder 15nm sind, dann muss also die Zahl der Streamproz. kontinuierlich wachsen, mal sehen wie weit man das Spiel wird treiben können.

Dennis Ziesecke Freier Redakteur - P - 29622 - 6. Oktober 2009 - 17:27 #

Letzten Endes ist es trotzdem effizienter, die Anzahl der Streamprozessoren, TMUs und ROPs innerhalb eines Chips zu erhöhen, anstatt zwei GPUs zu verbauen. Alleine der Punkt mit dem doppelt vorhandenem VRAM..

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit