Hardware-News KW 27: PhysX - künstlich gebremst?
Teil der Exklusiv-Serie Hardware-News

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

11. Juli 2010 - 21:21 — vor 13 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Kochende Wasserkühlungen, kreischende Grafikkartenventilatoren, schwitzende Hände -- nicht immer ist sommerliches Wetter wirklich erwünscht. Wer dieser Tage trotz Freibadwetter, Fußballtrubel und strahlendem Sonnenschein über aktuelle Hardwarethemen informiert bleiben möchte, bitteschön: Die GamersGlobal Hardware-News haben ihre Sommerpause beendet. Es gibt Neues von NVidia und AMD sowie eine Computermaus ohne... Maus.

NVidias GTX460 steht in den Startlöchern

Bereits am morgigen Montag soll die Hoffnung vieler sparsamer NVidia-Fans erscheinen: eine bezahlbare Mittelklassegrafikkarte mit guter Leistung, genannt GTX460. Die technischen Daten sind mit 336 Shadereinheiten, 675 MHz Chip- und 1350 MHz Shadertakt sowie 56 TMUs und 32 ROPs gar nicht schlecht. Beim Speicher gibt es allerdings Unterschiede zwischen zwei Modellen der GTX460: Eine Version wird nur mit  768 MB GDDR5-RAM und einem 192 Bit breitem Speicherinterface ausgeliefert, der Preis soll sich bei ca. 200 Euro bewegen. Eine mit 240 Euro etwas teurere Version der GTX460 wird auf 1024 MB GDDR5-RAM zurückgreifen können, hier ist das RAM zwar wie bei der kleineren Version mit 900 MHz getaktet, verfügt aber über ein Speicherinterface mit 256 Bit Busbreite und wird daher etwas leistungsfähiger sein.

Wenn man die reinen Zahlen mit Ausnahme der Shadereinheiten nimmt, müsste die GTX460 sogar etwas schneller arbeiten als eine teurere GTX465. Moderne DX11-Spiele allerdings benötigen oft eine hohe Tesselationleistung, die der GTX460 im Vergleich zu den größeren Modellen der Serie etwas fehlt. So liegt die 768MB-Version in bereits durchgesickerten Benchmarks nur knapp vor einer ATI HD5830 und deutlich hinter der GTX465. Besonders im Tesselationabhängigen Benchmark Heaven von Unigine, bisher Fermi-Terrain, fällt der Neuzugang stark ab. Wie sich das größere 1GB-Modell schlägt, wird sich zeigen müssen -- bei GamersGlobal wird es am Montag natürlich alle Fakten zum Release nachzulesen geben. Es bleibt zu hoffen, dass sich die ersten im Internet zu sehenden Benchmarks etwas relativieren, ansonsten wäre selbst eine mittlerweile etwas betagte GTX275 schneller als der teurere Neueinsteiger.

Noch mehr Sechskern-CPUs von AMD

Mit dem Phenom II X6 scheint AMD alles richtig gemacht zu haben. Sechs CPU-Kerne mit bis zu 3,2 GHz beim Topmodell 1090T zu Preisen zwischen 180 Euro (1055T mit 6x 2,80 GHz) und 280 Euro (1090T, 6x 3,2 GHz) sprechen viele aufrüstwillige PC-Besitzer offenbar an. Zumal diese Prozessoren oft auch problemlos auf ältere Mainboards mit AMDs älterem AM2+-Sockel passen und vorhandenes DDR2-RAM weitergenutzt werden kann. Ein weiteres Modell dieser Produktfamilie ist unter dem Namen 1035T nur für Komplettrechner erhältlich und unterscheidet sich ausschließlich in der Taktfrequenz (nur 6x 2,6 GHz) von den größeren Modellen.

Ende September diesen Jahres dann soll ein weiteres Modell auch im Endkundenmarkt folgen -- der Phenom II X6 1045T wird mit 6x 2,7 GHz getaktet für die meisten Anwendungen mehr als genug Leistung bringen, preislich aber wahrscheinlich unter 150 Euro angesiedelt sein. Auch wenn ein Sechskern-Prozessor für Spieler aktuell noch keine Vorteile bringt, mag es den einen oder anderen Anwender geben, der sich über die zusätzliche Leistung zum Beispiel bei Videoschnitt oder Bildbearbeitung zum kleinen Preis freuen wird. Im Vergleich zu Intels Sechskern-Riege kann man sich bei Nutzung eines AMD-Prozessors aktuell noch ein ganzes PC-System um den Prozessor herum kaufen, bis man den Preis eines Intel-Topprozessors "ohne alles" erreicht.

Bremst NVidia CPU-berechnete PhysX-Effekte künstlich aus?

Seit der Übernahme der kleinen Hardware- und Softwareschmiede Ageia sind die Grafikkartenspezialisten von NVidia in Besitz einer leistungsfähigen Physikengine. Da sich die Berechnung von Physikeffekten sehr gut parallel abarbeiten lässt und aktuelle Grafikchips sehr viele parallel geschaltete Prozessoren (bei NVidia CUDA-Cores genannt, ansonsten umgangssprachlich als Shaderprozessoren bekannt) aufweisen, liegt eine entsprechende Beschleunigung nahe, auch wenn bei modernen Spielen die Grafikkarte eh schon mehr gefordert ist als der Prozessor. Zu dem Zeitpunkt, als Ageia mit Zusatzsteckkarten Physikbeschleunigung angeboten hat, waren allerdings auch noch Singlecore-CPUs marktbeherrschend.

Allerdings ist es auffällig, wie sehr die Leistung von CPU-unterstützten PhysX-Effekten abfällt im Vergleich zur NVidia-GPU-Beschleunigung. Die Kollegen der Webseite Realworldtech analysierten jetzt den PhysX-Code und stellten NVidia ein nicht sonderlich gutes Zeugnis aus. So werde bei der CPU-basierten Physikbeschleunigung lediglich ein CPU-Kern für Physikberechnungen genutzt, selbst wenn sechs Kerne vorhanden sind. Wird indes die GPU als PhysX-Prozessor ausgewählt, arbeitet die Software auf wundersame Weise massiv parallel und sorgt so für hohe Bildraten. Weiterhin sollen bei der CPU-Physik nur veraltete Gleitkommabefehle zum Einsatz kommen, sogenannte x87-Befehle, wie sie von Intel und AMD schon seit zehn Jahren nicht mehr empfohlen werden. Moderne SSE-Befehle könnten von NVidia ohne viel Aufwand in die PhysX-Bibliotheken eingebunden werden und würden für eine deutliche Leistungssteigerung sorgen. Realworldtech verdächtigt NVidia aufgrund dieser Analysen, CPU-basierte Physik zugunsten der GPU-beschleunigten Version künstlich langsam zu halten.

NVidias PR-Manager Brian Del Rizzo weist diese Anschuldigungen ab und erklärt, der Support von Multithreading bei CPU-PhysX würde in den Händen der Spieleentwickler liegen, wie gut optimierte Programme wie der 3DMark Vantage oder der Fluidmark beweisen würden. Weiterhin würde der beanstandete Code noch von Ageia stammen und daher aus einer Zeit, in der Singlecore-CPUs vorherrschten. Einen Anlass, diese Programmteile auf aktuelle Hardware zu optimieren, sah man bei NVidia allerdings bislang offenbar nicht.

Die unsichtbare Computermaus

Forscher des MIT Media Lab haben eine "mauslose" Computermaus vorgestellt. Bei diesem Eingabegerät hält man die leere Hand, als würde man eine PC-Maus umfassen. Die Bewegungen der Hand werden von Infrarotsensoren ausgewertet und an den Rechner übertragen. Allerdings ist diese Art der Bedienung für mausgewohnte PC-Nutzer eher befremdlich, da man zwar die Hand zu einer kleinen Wölbung formt und die Finger so tun dürfen, als würden sie Mausknöpfe drücken -- jegliches haptische Feedback fehlt jedoch aus naheliegenden Gründen.

Ein System aus einem Infrarot-Laser und entsprechender Infrarot-Kamera registriert die Bewegungen der Hand und der Finger. Auf einem vom Laser auf die Tischplatte gezeichneten Feld darf man nun die Hand bewegen, Fingerbewegungen werden als Klick registriert, Handbewegungen steuern den Mauszeiger. Allerdings soll dieses IR-Projekt nicht unbedingt die herkömmliche Maus ersetzen, auch wenn ein Prototyp für gerade einmal 20 US-Dollar herzustellen wäre. Es handele sich eher um ein Forschungsprojekt um das seit Jahren unveränderte Feld der Computermäuse weiter zu entwickeln. Allerdings wird es sicherlich einen Grund haben, weshalb sich exotische Maus-Alternativen nie so recht haben durchsetzen können -- der klassische PC-Nager dürfte ergonomisch die Mäusenase vorn behalten.

Video:

falc410 15 Kenner - 3176 - 11. Juli 2010 - 21:27 #

Das mit PhysX ist ja echt eine Frechheit. Natürlich ist es schwerer auf der CPU zu parellelisieren als wie auf der GPU aber warum kein SSE verwendet wird ist mehr als fraglich. Und so ganz kann es dann doch nicht den Händen der Entwickler liegen denn immerhin binden diese ja die Libaries nur ein und kompilieren diese nicht neu nach belieben (dürften die das überhaupt?).

Anonymous (unregistriert) 11. Juli 2010 - 22:43 #

Wer weiß, vielleicht gibt es noch Spieleentwickler, die die Physikberechnung nutzen, deren Software aber noch unbedingt auf Prosessoren ohne SSE laufen muss, die dann zwangsläufig auch Singlecores sind.
Schließlich sind ja einige Spielentwickler lauf nVidia gegen die Nutzung von SSE.
Möchte nur mal wissen wer das sein soll.

Unterstützt die Wii vielleicht noch kein SSE?...

HaunebuVII 09 Triple-Talent - 280 - 11. Juli 2010 - 21:57 #

Danke für diese Neuigkeiten DoD!

Dennis Ziesecke 21 AAA-Gamer - 30866 - 11. Juli 2010 - 22:11 #

Bitte :) .. Und: kleines d hinten, ich hieß schon so vor Day of Defeat :) .

Dragor 14 Komm-Experte - 2170 - 11. Juli 2010 - 22:26 #

Ich fänds seltsam ohne Maus am PC zu arbeiten. Die ganze zeit mit den Fingerspitzen über die Tischoberfläche zu fahren ist bestimmt nach einiger Zeit auch nicht mehr angenehm.

Vaedian (unregistriert) 11. Juli 2010 - 22:49 #

Ich hör andauernd Leute, die sich über die "unsichtbare Maus" aufregen. Denkt doch mal ein bißchen weiter! Nur weil heutzutage alles über die Maussteuerung läuft, muss das in 10-20 Jahren längst nicht mehr der Fall sein. Vor 15 Jahren bediente man den Norton Commander per Tastatur, noch ein zwei Jahrzehnte weiter und wir bedienen vielleicht schon dreidimensionale Anzeigen alá Minority Report. Eine Infrarottastatur die nur auf die Tischplatte projeziert wird gibt's ja auch schon seit Jahren.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 11. Juli 2010 - 22:55 #

So eine Tastatur gibt es, das stimmt. Aber wirklich toll ist das Bedienen dieser Tastatur nicht, weshalb sie kaum jemand gekauft hat, der das Ding ausprobieren konnte. Bei einer Maus ist es da ja noch krasser, zumindest in der Form, in der die MIT-Jungs das aktuell vorgestellt haben.

In 3-Dimensionalen Räumen hingegen verliert man so erschreckend schnell den Überblick. Ein Grund, weshalb ich bei meinem Computertisch lieber dafür sorge, alle Papiere sichtbar und platt anzuordnen ;) .

Suzume 14 Komm-Experte - 1980 - 11. Juli 2010 - 23:21 #

Was die "unsichtbare Maus" betrifft, so könnte ich sie mir als Eingabegerät an öffentlichen Terminals vorstellen - als Alternative zu Touchscreens.
Oder auch in Umgebungen, wo ein Mauseinsatz problematisch bis unmöglich wäre... Unterwasserforschung, Weltraumforschung, Arbeits- oder Reiseplätze mit hohen Geschwindigkeiten/Beschleunigungen (kleine Geräte könnten bei Unfällen zu Geschossen werden).
Wer weiß, was die Zukunft bringt?

bam 15 Kenner - 2757 - 12. Juli 2010 - 6:11 #

Letztendlich sind unsichtbare Maus, Infrarottastatur oder auch eine "Minority Report"-Steuerung keine echten Alternativen, sondern bringen nur unter ganz speziellen Bedingungen Vorteile.

An die Präzision, Geschwindigkeit und dem Komfort einer Maus kommt eben keine andere Technik ran. Ich sehe jedenfalls keine Ablösung für Maus- und Tastatur im Büro oder im Heimanwenderbereich.

InvalidNick 08 Versteher - 196 - 12. Juli 2010 - 12:23 #

Das mit der Maus erinnert mich schwer an Mass Effect - da wird das Problem mit dem fehlenden Feedback durch einen Handschuh der auf die Finger drückt wenn man "klickt" gelöst - wie wärs?^^

Dennis Ziesecke 21 AAA-Gamer - 30866 - 12. Juli 2010 - 12:57 #

Irgendwie doof oder? Einfacher wäre es, da wieder eine Maus hinzulegen ;) .

ChrisnotR (unregistriert) 12. Juli 2010 - 18:31 #

Also in der GS und der PCGH kommt die GTX 460 sehr gut weg, die Spieleleistung und P/L-Verhältnis sind laut Gamestar und deren Benchmarks wirklich gut. Habt ihr bei Gamersglobal wohl kein Testmuster bekommen oder warum wird die Graka hier so schlecht geredet? Sry für die harte Formulierung, die GTX 460 scheint aber dass Beste Angebot seit langem zu sein.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 12. Juli 2010 - 19:47 #

Psst, hast du mal geschaut, wann die News geschrieben wurde? Ja genau, vor Ende der NDA für die 460. Zu dem Zeitpunkt waren Testergebnisse noch nicht bekannt oder durften noch nicht bekannt gegeben werden. Erst denken, dann meckern, danke.