Spiele-Hardware: Newsroundup der KW 40 (Update)
Teil der Exklusiv-Serie Hardware-News

Bild von Dennis Ziesecke
Dennis Ziesecke 29630 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Dieser User unterstützt GG mit einem Abonnement oder nutzt Freimonate via GG-Gulden.Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreicht

4. Oktober 2009 - 14:31 — vor 7 Jahren zuletzt aktualisiert

In der vergangenen Woche ist bei der PC-Spielehardware erneut einiges geschehen. Allerdings konzentrieren sich diese Ereignisse fast ausschließlich auf den Grafikkartenmarkt, nicht einmal eine CPU-Randnotiz hat es in den aktuellen Bericht geschafft. Aber lasst uns doch einfach beginnen:

nVidia präsentiert selbstgebastelten Fermi-Dummy anstatt echter Hardware

Wie Gamersglobal vor einigen Tagen berichtete, stellte nVidia ihre neueste Grafikkartentechnologie mit dem Codenamen "Fermi" vor. nVidias CEO Jen-Hsun Huang zeigte stolz eine GPU sowie ein Grafikkartenmodell mit hochglänzendem Kühler in die Kameras und erlaubte auch Nahaufnahmen von Karte und Chip. Dummerweise hatte ihm seine PR-Abteilung offenbar zuvor nicht mitgeteilt, dass es noch keine wirklich repräsentativ aussehende Fermi-Karte gibt und er nur einen zurecht gebastelten Dummy herumzeigen durfte.

Da auch mit einigen Detailinformationen bei der Präsentation gegeizt wurde, begannen diverse Hardwarekenner die Bilder der gezeigten Karte zu analysieren und rieben sich verwundert die Augen. Die Bestückung der Platinenrückseite passte nun gar nicht zur Anordnung der Stromanschlüsse auf der Oberseite, es waren Lötpunkte für DVI-Anschlüsse zu sehen, wo kein DVI herausgeleitet wurde. Die Frontblende war mit drei Holzschrauben sehr rudimentär an der Lüfterkonstruktion befestigt, die obere Reihe der Luftauslässe an der Blende war durch den Kühler verdeckt und wäre wirkungslos. Das Ende der Platine wirkt eher unsauber abgetrennt und auch der zweite SLI-Connector wäre unbenutzbar, da er von einer Metallplatte verdeckt wird. Diese Platte sorgte dann auch dafür, dass von der Platinenrückseite keine Rückschlüsse auf den verbauten Grafikchip zu ziehen waren, immerhin so weit hat der verantwortliche Techniker gedacht. 

nVidias PR-Abteilung gab die Fälschung zu und ließ verlauten, dass das Originalboard aussehe "wie ein Tintenfisch" mit all den angelöteten Kabeln und Kontakten. Für eine Präsentation wäre diese Platine nicht geeignet gewesen. Vielleicht hätte man aber wenigstens den Chef einweihen oder den Dummy etwas professioneller gestalten können. Die technischen Details der 300er-Serie klingen nämlich beeindruckend:

Weitere Details zu nVidias DX11-Grafikkartengeneration

Bereits die grundlegenden Informationen zu den eventuell noch 2009 erscheinenden Karten deuteten auf sehr viel Leistung hin. 512 Streamprozessoren bedeuten quasi eine Verdopplung der Shaderleistung, auch die Anzahl der TMUs steigt von 80 auf 128 an. Bei den ROPs erhöht sich die Anzahl von 32 auf 48. Das Speicherinterface wird allerdings wie bereits berichtet von 512 Bit auf 384 Bit gedrosselt, was durch die Nutzung von schnellem GDDR5-RAM aber kompensiert werden kann. Effektiv bleibt sogar eine Erhöhung der Speicherbandbreite von knapp 30% zu verbuchen. 

Allerdings fehlt den neuen Chip eine Einheit für die von DX11 geforderten Tesselationfunktionen. Entsprechende Berechnungen sollen per Software stattfinden und damit die Streamprozessoren belasten. Da Tesselation eine für die optische Qualität eines Spieles nicht unwichtige Funktion ist, nutzen viele für DX11 angekündigte Spiele entsprechende Berechnungen. Wie sehr sich die Sparsamkeit von nVidia in diesem Bereich auf die Rechenleistung niederschlägt werden erste Benchmarks zeigen müssen. nVidia konzipiert den Tesla-Chip auch primär für GPGPU-Anwendungen, der Gamingbereich scheint in der Entwicklung eher sekundär zu sein.

Um nicht nur ein eigentlich für professionelle Aufgaben konzipiertesTopmodell für exorbitant hohe Preise anbieten zu können, hat nVidia die Entwicklung von drei Spieler-GPU-Modellen auf Fermi-Basis angekündigt. Das Topmodell kommt mit den bereits dargelegten technischen Details auf den Markt. Allerdings werden einige Details fehlen, teures ECC-RAM wird sicherlich eingespart. Zwei weiter abgespeckte Versionen sollen dann später folgen. In welchen Bereichen bei diesen Modellen gespart wird, ist noch unklar, denkbar wäre aber ein schmaleres Speicherinterface, geringerer Takt und der Verzicht auf Funktionseinheiten. Große Bereiche der neuen GPU sind nämlich für den Einsatz im Gamercomputer komplett verzichtbar, kosten aber aktuell trotzdem Chipfläche und damit Geld. Dennoch bleibt damit ein Punkt klar - es wird keine Mittelklasse und keine Einsteigerserie auf Basis des Fermi-Chips geben (können). Wie nVidia dieses Problem angehen wird, ist bislang unklar. Denkbar wäre aber immer noch eine zweigeteilte Serie mit DX10.1 für die Einstiegs- und Mittelklasse sowie DX11 für die HighEnd-Modelle. Hauptkonkurrent ATI hat es da einfacher:

Erste Benchmarks einer HD5750 sowie wahrscheinlicher Verkaufstermin

Mittlerweile sind erste Karten mit ATIs brandneuem HD5870-Chip bereits auf dem Markt, sogar DX11-Patches für aktuelle Spiele gibt es bereits oder sie sind angekündigt. Da jedoch kaum ein PC-Besitzer bereit ist, 330 Euro für eine Grafikkarte auszugeben, wird oft auf die Mittelklasse in Form der HD5750 und HD5770 gewartet.

Jetzt sind erste Benchmarks der HD5750 sowie einige technische Details zu dieser Karte aufgetaucht. Die Benchmarkergebnisse beziehen sich leider aktuell nur auf zwei Versionen des 3D-Mark und sind daher für Spiele wenig aussagekräftig. Die HD5750 liegt hier knapp auf dem Niveau ihrer Vorgängerkarte namens HD4770 und wird wahrscheinlich auch preislich nur knapp über einer solchen Karte angesiedelt sein. Angekündigt sind 149 Dollar für die HD5750 und 199 Dollar für die schneller HD5770. Zu dieser sind leider noch keine technischen Daten verfügbar, eine Leistungseinschätzung ist daher nur schwer möglich. Denkbar wäre aber das Leistungsniveau einer HD4870, allerdings bei geringerem Energiebedarf und den DX11-Zusatzfunktionen.

Als wahrscheinlicher Verkaufstermin der Mittelklassenmodelle wird der 12. Oktober gehandelt. Dieser Termin war schon öfter im Gespräch und gilt als relativ gesichert, ob allerdings ausreichend Karten für die hohe Nachfrage geliefert werden können, darf bezweifelt werden. Schon die HD5850 ist kaum verfügbar, auch auf die HD5870 muss oft länger warten.

Wer angesichts hochkarätiger Spiele wie Batman: Arkham Asylum mit dem Gedanken spielt, seinen Rechner trotz ATI-Grafikkarte mit einer günstigen nVidia-Geforce als Zweitgrafikkarte PhysX-tauglich zu machen, wird enttäuscht. Bereits vor einigen Monaten entfernte nVidia im Treiber die Möglichkeit, eine Geforce als Physikkarte zu nutzen, wenn als primärer Grafikbeschleuniger eine Karte von ATI genutzt wird. So bleibt für die Zukunft nur die Hoffnung auf die OpenSource-Physikengine Bullet, welche Plattform- und Grafikherstellerübergreifend auf OpenCL und den Einsatz von Compute-Shadern setzt. ATI fördert die Entwicklung und Umsetzung dieser Engine auf OpenCL.

Damit wären wir auch schon wieder am Ende des aktuellen Roundups. Nur Grafikkarten, wohin man schaut. Wer auf CPU-News gewartet hat: AMD senkt die Preise für einige Phenom II um bis zu 30 Dollar. Hoffentlich gibt es in der kommenden Woche in diesem Themenbereich mehr zu berichten...

Update: Danke an Camaro übrigens für den Hinweis, dass ich schon seit ein paar Wochen mit den Kalenderwochen durcheinander gekommen bin.
Weiterhin ist am Ende jetzt noch ein Video zu sehen, in dem sich nVidias Fermi einmal an Wasserberechnungen beweisen darf. 128.000 einzeln berechnete Partikel wirken hier physikalisch korrekt aufeinander ein, bis vor kurzem wurden solche Simulationen aufwändig berechnet anstatt sie in Echtzeit präsentieren und manipulieren zu können.

Weiterhin gibt es bereits Gerüchte, dass ATI bereits die Nachfolgeserie zu den aktuell vorgestellten HD5000ern entwickelt und diese eventuell bereits Ende kommenden Jahres veröffentlicht. Als Fertigungsprozess stehen dann 28nm zur Diskussion, zuvor wäre ein geschrumpftes HD5000-Modell denkbar. nVidia hingegen arbeitet zwar auch an einem Fermi-Nachfolgechip, wird diesen aber laut eigener Aussage erst in zwei bis drei Jahren zur Marktreife bringen können.

Video:

Dennis Ziesecke Freier Redakteur - P - 29630 - 4. Oktober 2009 - 14:33 #

Wenns an der einen oder anderen Ecke etwas sperrig formuliert ist - nicht wundern. Bin stolz, trotz wattiertem Kopfinhalt, überhaupt etwas geschrieben zu haben ;) ..

melone 06 Bewerter - 1512 - 4. Oktober 2009 - 14:53 #

Ich mag Deine Zusammenfassungen. :O)

Schade, daß Intel das Potential von Havok nach der Akquise nicht genutzt hat. Mit der richtigen Lizenzpolitik, hätten sie's zum Physik-API #1 machen können. PhysX ist, mei, PhysX, und Bullet hat noch einen steinigen Weg vor sich.

Wen jucken in den letzten Jahren schon CPU Updates? Jipieee 13% Steigerung...

Benjamin Ginkel 18 Doppel-Voter - 10252 - 4. Oktober 2009 - 17:12 #

Jepp. Auch Technikmuffel (wie ich) kriegen da Woche für Woche so die aktuellen Themen mit. Super Arbeit!

Crizzo 18 Doppel-Voter - 11151 - 4. Oktober 2009 - 15:24 #

nVidia mit "Dummy-Karte". Total Geil. :D

Leider keine Möglichkeit für PhysX mit ATI-Hauptkarte. Schade, aber da ich eh nicht weiß, was da besser wird, vermiss ich auch nichts^^.

Dennis Ziesecke Freier Redakteur - P - 29630 - 5. Oktober 2009 - 12:01 #

Angeblich solls da einen Userpatch geben, der die Beschränkung wieder entfernt. Ich bin versucht, mutig zu sein ;) . Allerdings würde das bedeuten, dass ich erst in ein neues Mainboard investieren müsste, dummerweise habe ich vor einiger Zeit noch gedacht, niemals zwei PEG-Steckplätze zu brauchen. Fehlentscheidung, so gut hätte ich mich auch da schon kennen können ;) .

Marco Büttinghausen 19 Megatalent - P - 19331 - 4. Oktober 2009 - 17:11 #

Das Video am Ende gefällt mir, dauert sicherlich noch ein paar Jahre bis sowas mal in Spielen zu sehen ist, aber schön zu sehen das es möglich ist.

Dennis Ziesecke Freier Redakteur - P - 29630 - 4. Oktober 2009 - 17:37 #

Wie in den Kommentaren anderswo geunkt wird - das bietet sich doch für einen Pfützensimulator oder ein Sims-Wasserspiele-Addon quasi an ;) .

Marco Büttinghausen 19 Megatalent - P - 19331 - 5. Oktober 2009 - 3:12 #

Möglich ja...ich denke da eher so an einen Strand mit echten Wellen in Risen2, oder Regen der sich physikalisch korrekt zu Pfützen sammelt...oder wie wäre es mit einem innovativem Denkspiel das mit Wasser zu tun hat, gibt genug Möglichkeiten aber wenn es cool aussieht wirds auch irgendwann kommen.

Dennis Ziesecke Freier Redakteur - P - 29630 - 5. Oktober 2009 - 8:10 #

Gabs da nicht schon was? So eine Special-nVidia-PhxsX-Edition von so nem Knobelspiel, wo physikalisch per GPU berechnetes Wasser eine große Rolle spielte?

Marco Büttinghausen 19 Megatalent - P - 19331 - 5. Oktober 2009 - 11:49 #

Sagt mir zumindest nichts, ich kenne nur eine Techdemo von Nvidia wo die schonmal vor nem Jahr mit Wasser gespielt haben.
Link or it didn't happen :-)

Dennis Ziesecke Freier Redakteur - P - 29630 - 5. Oktober 2009 - 11:56 #

Ha! Sogar mit Video:

http://www.youtube.com/watch?v=X0gQ8h2YnnI&hl=de

Crazy Machines2+ nennt sich das, "+" steht für das PhysX-Paket und steht bei nVidia zum Download.

Marco Büttinghausen 19 Megatalent - P - 19331 - 5. Oktober 2009 - 12:35 #

Nice, gibts also schon sowas...wieder kein Patent mit dem ich reich werden kann.

Dennis Ziesecke Freier Redakteur - P - 29630 - 4. Oktober 2009 - 20:28 #

Ich hoffe übrigens primär auf ATI-Physik. Wie weit die Bullet-Engine ist - keine Ahnung. Aber eine plattformübergreifende Physikengine mit GPU-Berechnung wäre wünschenswert. Ist hier jemand entsprechend bewandert - wäre ein OpenCL-Wrapper für PhysX machbar?

melone 06 Bewerter - 1512 - 5. Oktober 2009 - 8:31 #

Eigentlich ist eine Physikengine realtiv plattformunabhängig; von daher kann sie auch, nach Absprache, auf nicht vom Hersteller offiziell unterstützte Plattformen, umgesetzt werden. Dies machen z.B. manche Middlewareanbieter, um weitestgehend konsistente Physik auf den von ihnen unterstützten Plattformen anzubieten.

Problematischer wird's an der Stelle, wo sich die Architekturen grundsätzlich unterscheiden, z.B. PS3 vs. PC, was in entsprechenden Mehraufwand resultiert.

Prinzipiell wird OpenCL von ATI und nVIDIA über ihre GPGPU-Schnittstellen unterstützt (ATI-Stream bzw. CUDA) und programmiert wird u.a. vereinfacht gesprochen in C (es gibt auch Wrapper für Ruby oder Phyton) samt für die Parallelisierung zusätzliche Funktionen und Datentypen.

Havok hatte ja bereits mit AMD ein paar seiner Produkte als OpenCL Demo vorgeführt. nVIDIA hofft auf die Kombi PC und nVIDIA Grafikkarte, und Bullet ist, wie bereits oben erwähnt, noch lange nicht so weit; nicht in den Aspekten, in denen sich die Spreu vom Weizen trennt.

Jeder Hersteller hat hier seine eigenen Motive und, daß hier noch viel Arbeit zu leisten ist, zeigen z.B. auch die Probleme die OpenCL auf SnowLeopard mit ATI Karten hat.

Dennis Ziesecke Freier Redakteur - P - 29630 - 5. Oktober 2009 - 8:31 #

Nachdem im Internet ja für jeden Mist gespendet wird - können wir nicht mal alle zusammenlegen und ein paar Softwareentwickler für ATI spenden? Hardware können die Jungs ja inzwischen, mit der Software hakt es aber immer noch etwas ;) .

Dennis Ziesecke Freier Redakteur - P - 29630 - 4. Oktober 2009 - 20:48 #

So, letztes Update zur News, mehr gibts nicht.

Jörg Langer Chefredakteur - P - 338157 - 4. Oktober 2009 - 22:28 #

Wie eigentlich immer: Sehr lesenswert!

rabauke 12 Trollwächter - 1056 - 5. Oktober 2009 - 9:03 #

Ich finde deine regelmäßigen News-Roundups sehr gelungen. Gerade bei der Masse an Micro-News, die es hier manchmal gibt. Da steckt jedesmal Substanz drin. Weiter so!

Dennis Ziesecke Freier Redakteur - P - 29630 - 5. Oktober 2009 - 12:00 #

Danke für die lieben Worte :) - das sei jetzt auch als Danke-Roundup an alle zu sehen ;) .

Bin übrigens immer froh, wenn sich jemand den ganzen Textwust durchliest und versuche die Abschnitte auch irgendwie zu verbinden - wobei man sich natürlich auch seine Lieblingsnewsfragmente herauspicken kann.

Dennis Ziesecke Freier Redakteur - P - 29630 - 5. Oktober 2009 - 12:34 #

Ich bin momentan stark versucht, mir ein Mainboard mit zwei PEG (Grafiksteckplätzen) zu kaufen, nur um die hier herumliegende GF9600GT als Physikkarte zur HD4850 zu nutzen. Irgendwie bin ich neugierig auf den Userpatch, der das wieder ermöglichen soll. Und auf die Bastelei. Wäre ein User-Report zu dieser Aktion interessant oder soll ich's als Privatvergnügen abhaken? ;)

Armin Luley 19 Megatalent - 13655 - 5. Oktober 2009 - 13:26 #

Ob es interessant ist, hängt ausschließlich davon ab, wie Du ihn schreibst. :)

Dennis Ziesecke Freier Redakteur - P - 29630 - 5. Oktober 2009 - 13:32 #

Hehe. Gutes Argument. Unabhängig davon habe ich mir gerade ein CF-taugliches Board bestellt, sollte die kommenden Tage geliefert werden. Ich mache dann mal vom Umbau und der Installation des Beta-Patches sowie dann hoffentlich PhysiX-Beschleunigten Games Bilder oder Videos und hoffe, daraus einen auch für weniger technikbegeisterte User einen interessanten Bericht schreiben zu können. Wenn mir nichts einfällt - vergesst, was ich geschrieben habe, löscht diese Kommentare und denkt euch nichts dabei :D ..

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)