Hardware-News KW 44: Neues von GTX580 und HD6900
Teil der Exklusiv-Serie Hardware-News

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

1. November 2010 - 22:16 — vor 13 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!
Viele ältere PC-Spieler neigen bekanntlich dazu ab und an mit glasigem Blick verklärt in die Vergangenheit zu schauen. Hach, war früher nicht alles besser? Die Spiele waren zwar noch hässlich und ohne nennenswerte Physik- und Beleuchtungstechnik. Dafür hatten sie Charme und suchterzeugende Regelwerke. Ok, also eigentlich alles, was viele aktuelle Browserspiele auch bieten. Und die PC-Hardware! Festplatten groß wie Kinderschuhe und mit dem Speicherplatz einer CD. Monitore auf denen Hobbybäcker ihren Hefeteig aufgehen lassen konnten. Und der Bleistift war das wichtigste Werkzeug für jeden Übertakter, so einfach war das damals - und ist es auch heute noch:


Diese beiden Punkte müssen für den Voltagemod überbrückt werden. Bild von VR-Zone.com

AMD HD6870 - Übertakten per Bleistift

Neben den unter Umständen doch sehr praktischen Schreibeigenschaften eines Bleistiftes, haben diese schmächlich falsch benannten graphithaltigen Schreibinstrumente noch eine andere sehr nützliche Eigenschaft: Das in der Mine enthaltene Graphit ist elektrisch leitfähig und ermächtigt selbst Menschen ohne Erfahrung am Lötkolben unterbrochene Kontakte zu schließen. Einst nutzte man diese Funktion, um den Multiplikator älterer Athlon- und Duron-CPUs freizuschalten. Heutzutage spielen CPUs für stiftschwingende Computerzocker allerdings nur noch eine Nebenrolle, der wahre OC-Meister wagt sich an die Grafikkarte. Ein Strich an der richtigen Stelle löst bei AMDs jüngst vorgestellter HD6870 einen internen Widerstand und erhöht so die Versorgungsspannung um etwa 14% auf 1,82 Volt.

Diese Spannungserhöhung ermöglicht etwas höhere Taktraten des GDDR5-RAMs. Die Takt- und Performancegewinne sind jedoch gering, so dass sich das Risiko für die Übertaktung kaum lohnt. Die Bastler bei VR-Zone konnten den Speicher mithilfe des Bleistifttricks von 1050 MHz auf 1180 MHz anheben -- allerdings waren auch ohne Spannungserhöhung bereits 1140 MHz möglich. Für magere 3% zusätzlicher Leistung lohnt es sich nicht wirklich, dem Bruder seine Bleistifte aus der Federmappe zu stibitzen. Zumal durch die Spannungserhöhung sowohl die Wärmeentwicklung als auch die Lebenserwartung der Speicher negativ beeinflusst werden dürfte. Vom Garantieverlust der Karte durch die Demontage des Kühlsystems ganz zu schweigen. 

NVidia GTX580 - Spezifikationen und Erscheinungsdatum

In der vergangenen Woche erschienen mehr und mehr Bilder von NVidias bald erscheinender Highend-Grafikkarte GTX580. Der Start des neuen 3D-Beschleunigers soll direkt bevorstehen, als Termin für die offizielle Enthüllung ist der 8. November im Gespräch. Auch ein Entwicklertreiber für aktuelle NVidia-Grafikkarten enthält bereits Hinweise auf die GTX580. Offenbar möchte NVidia den ebenfalls im November erscheinenden Cayman-Grafikkarten von AMD auf jeden Fall zuvorkommen und weiterhin die Leistungskrone für sich beanspruchen.

Wie bereits vielerorts vermutet, wird die GTX580 offenbar tatsächlich mit 512 Shadereinheiten und einem 384 Bit breiten Speicherinterface zum 1,5 GB großen GDDR5-RAM aufwarten können. Die Taktraten werden moderat auf  2004 MHz für den Speicher und 772 MHz für den Grafikkern angehoben. Daraus resultiert ein Takt von 1544 MHz für die Shadereinheiten, welche bei NVidia immer doppelt so schnell takten wie der Grafikkern selbst. Damit entspricht die GTX580 ziemlich genau den Vorstellungen, die NVidia bereits zum Release der GTX480 hatte - sowohl die Taktraten als auch die Menge der Shadereinheiten waren so für den GF100-Chip geplant gewesen, konnten aber aufgrund von Fertigungsproblemen und Bugs im Chipdesign nicht gehalten werden. Charlie Demerjian, seines Zeichens gut informierter Chefskeptiker bei der Website semiaccurate.com ist sich sicher, der jetzt in Form der GTX580 erscheinende GF110-Chip hätte ursprünglich als Shrink mit 32nm feinen Strukturen herauskommen sollen. Allerdings wurde dieser Fertigungsprozess vom Auftragsfertiger TSMC aufgrund von technischen Problemen gestrichen, weshalb die GPU nur minimal überarbeitet werden konnte.


Die GTX580 gleicht einer GTX480 wie ein Ei dem anderen. Bild von pcinlife.com

Die momentan bekannten Daten sprechen aber nicht nur für einen sehr teuren Grafikchip, sondern deuten erneut auf eine recht hohe Energieaufnahme und damit auch Wärmeentwicklung hin. NVidia selbst spricht zwar von 20% mehr Leistung bei 80% der Energieaufnahme im Vergleich zur GTX480, ein wenig Zweifel dürfte angesichts der eher geringen Änderungen am Chip allerdings tatsächlich angebracht sein. 

Während AMD offenbar alles daran setzt zum Start der HD6900-Karten ausreichend Grafikkarten in den Regalen der Händler stehen zu haben um eine flächendeckende Verfügbarkeit zu garantieren, spricht laut der Gerüchteküche im Falle der GTX580 alles für einen Paperlaunch. Eine Vorstellung für die Öffentlichkeit also ohne ausreichende Verfügbarkeit im Handel. In diesem Jahr sollen angeblich nur wenige Modelle produziert werden können, gerade ausreichend für Pressemuster und Präsentationen. Im Handel großflächig verfügbar sollen die GTX580 dann allerdings wohl erst Anfang des kommenden Jahres sein. Ob diese Vorstellung potentielle Kunden davon abhalten wird, sich eine HD6900 unter den Weihnachtsbaum zu legen?

AMDs HD6900 - Effizientere Shader, 2GB RAM

Fiel die Präsentation der HD6800-Grafikkarten aus dem Hause AMD noch für einige Nutzer eher ernüchternd aus da keine Spitzenleistungen erreicht, sondern nur solide eine Mittelklasse vorgestellt wurde, soll sich bei der HD6900er-Reihe alles ändern. Die Chancen stehen gut für AMD, handelte es sich bei den HD6800 doch nur um ein etwas aufpoliertes Chipdesign der älteren HD5800-Karten. Ein wenig auf hohe Taktraten und niedrige Produktionskosten getrimmt, etwas intern aufgemotzt - fehlen nur noch der glänzende Chrom und ein Fuchsschwanz. 

Mit einem Monat Verspätung sollen im November die potenten Topmodelle erscheinen - die Verzögerung hat gute Gründe, ändert AMD für die HD6900 doch deutlich mehr an der GPU als bei der HD6800. Bislang arbeiten AMD-Grafikkarten mit sogenannten 5D-Shadern, eingeführt wurde diese Technik mit der HD2000-Serie. AMD spricht hierbei von Streamprozessoren, weshalb eine entsprechende Grafikkarte je nach Betrachtungswinkel entweder 320 (5D-) Shadereinheiten oder 1600 Streamprozessoren aufweist. Jede Shadereinheit besitzt dabei insgesamt 5 gleichzeitig ausführbare Funktionen (RGBA, Rot-Grün, Blau, Alpha und eine Einheit für spezielle Befehlsfolgen). Bei geschickter Programmierung kann sich dieser Aufbau als sehr nützlich erweisen, in der Realität hingegen werden sehr oft nicht alle Funktionen gleichzeitig benötigt, so dass der Grafikchip an Effektivität einbüßt und nicht alle Einheiten ausgelastet werden. Als erstes GPU-Design seit der Einführung der HD2000 ändert AMD bei der HD6900-Reihe jetzt den Aufbau der Shader zu einem 4D-Design. Die Komplexität der Streamprozessoren wird also etwas heruntergestuft um eine höhere Effizienz zu erreichen und um Chipfläche einzusparen. Mit dem Wechsel von 5D- auf 4D-Shadereinheiten erhöht sich die Shaderleistung im besten Falle um 20% -- bei immer noch etwas geringerer Chipfläche. 

Zwar sind die exakten Spezifikationen der kommenden HD6950 und HD6970 noch unbekannt, es kann allerdings davon ausgegangen werden, dass das Topmodell über 480 4D-Einheiten, also 1920 Streamprozessoren verfügen wird. Beim Vorgänger HD5870 kamen 320 5D-Einheiten, also insgesamt 1600 Streamprozessoren zum Einsatz. Bei gleich bleibender Taktfrequenz könnte sich die Leistung einer HD6970 im Vergleich zu einer HD5870 um 20 - 40 Prozent erhöhen, eventuell sind aufgrund von Verbesserungen unter anderem an der Tesselationeinheit noch weitere Performancegewinne möglich. 


Erste technische Daten zur HD6900-Reihe. Bild von www.chiphell.com

Eine offenbar direkt von AMD stammende Präsentationsfolie mit einigen kleineren Details ist bei chiphell.com veröffentlicht worden. Auf dieser Folie offenbaren sich nicht nur die 4D-Shader, es findet sich auch der Hinweis auf eine serienmäßige Bestückung mit gleich 2 GB GDDR5-RAM. Die Geometrieleistung im Vergleich zur Vorgängergeneration soll laut AMD verdoppelt worden sein. Weniger euphorisch klingen hingegen die Angaben zum Stromverbrauch - die HD6970 wird mit unter 300 Watt, die HD6950 mit unter 225 Watt maximaler Energieaufnahme angegeben. Noch gelten diese Spezifikationen allerdings nicht als gesichert, endgültige Werte liefert erst die offizielle Präsentation dieser Karten in den kommenden Wochen.

Logitech präsentiert solarbetriebene Tastatur

Batterien in kabellosen Eingabegeräten haben oft einen extremen Nachteil -- sie sind immer exakt zu dem Zeitpunkt leer, an dem man das Gerät besonders dringend benötigt. Laut Murphy's Law ist es außerdem gerade Wochenende und es folgt ein Feiertag und weder Tankstelle noch Kiosk in der Umgebung führen das passende Modell. Logitech möchte dieser störenden Situation vorbeugen und bietet daher eine kabellose Tastatur mit Solarzellen als Energielieferanten an. Damit auch lichtempfindliche Bewohner der World of Warcraft mit dem Gerät arbeiten können, speichert der integrierte Akku genug Energie für bis zu drei Monate Betrieb. Eine Neuheit sind solarbetriebene Tastaturen indes nicht, bereits 2005 verkaufte sich Cherrys CyMotion Master Solar eher schleppend.

Neben den zwei Solarkollektoren im oberen Bereich verfügt die Logitech-Tastatur über ein wenig spektakuläres Standardlayout. Allerdings fertigt Logitech die Tastatur in einer sehr flachen Bauform und nutzt, wie momentan Mode, flache Notebooktasten mit sehr geringem Tastenhub. Im Lieferumfang enthalten ist der für die Kommunikation mit dem PC nötige Nano-Empfänger. Dieser arbeitet auf der 2,4GHz-Frequenz und erreicht bis zu 10 Meter Reichweite. Die Verbindung wird mittels einer 128-Bit-Verschlüsselung gesichert. Der Verkaufsstart des Logitech Wireless Solar Keyboard K750 soll noch diesen Monat erfolgen, die unverbindliche Preisempfehlung liegt bei 79,99 Euro.


Logitech K750 - zwei Solarzellen speisen den internen Akku.

 
Crizzo 20 Gold-Gamer - - 24427 - 1. November 2010 - 22:53 #

Blöder Trend, ich will keine Notebook-Tasten bei meiner Desktop-Tastatur haben, weil ich meinen Bildschirm nicht drauf klappen und deshalb nach genug Platz habe... :/

Nvidia muss wohl aufpassen, dass die GTX580 keine Bauchlandung wie die 5xxx wird...

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. November 2010 - 22:57 #

Nachdem ich ewig ne olle Cherry mit hohen Tasten, ewig langem Hub und Goldkontakten hatte (und die wirklich geliebt habe, meine Holde wollte sie nur nicht mit ins Bett lassen) bin ich trotz allem extrem glücklich mit einer Cherry Stream mit Notebooktasten. Klein, flach, tippt sich klasse. Ich bemerke immer, wie wenig Bock ich auf Schreiben habe, wenn ich mit einer anderen Tastatur arbeiten muss. Alternativ geht noch das Keyboard eines Thinkpad auf der T-Serie..

John of Gaunt 27 Spiele-Experte - 78508 - 1. November 2010 - 23:09 #

Ich habe auch eine Tastatur von Cherry (Heißt die auch Stream? Keine Ahnung) mit flachen Tasten und bin damit hochzufrieden. Und auch mir geht es so, dass ich auf Tastaturen mit hohen Tasten nur noch sehr ungern schreibe. Irgendwie fliegen die Finger da nicht so geschwind über die Tasten :)

Crizzo 20 Gold-Gamer - - 24427 - 1. November 2010 - 23:13 #

Püh, Banausen :> So komisch flach ist da nix, da würde ich die Tastatur ja doch wieder aufstellen. :D

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. November 2010 - 23:48 #

Ich hab noch ne alte Typenrad-Schreibmaschine von der Ommama, willst haben? Ich kleb da mit Uhu auch einen USB-Stecker ran, nur für dich :P ..

Azzi (unregistriert) 2. November 2010 - 1:09 #

Zum Arbeiten finde ich flache Notebooktasten aber deutlich besser. Ich tippe schneller und die Tastatur ist leiser. Beim Zoclen gibts kein Unterschied also gilt für mich: Flache Tasten > alte Tastatur

BrentCent (unregistriert) 2. November 2010 - 2:31 #

Alle Notebooktastaturen die ich bis jetzt getestet habe waren zum Zocken schlechter geeignet als Modelle mit "hohen" Tasten:

-Wabbeligerer Anschlag
-Druckpunkt nicht so genau definiert
-Keine ergonomisch geschwungene Form
-können nicht dauerhaft schräg arretiert werden
-(oft) fehlende Handballenauflage
-sind allgemein anfälliger für Flüssigkeiten (leichteres verkleben) und grobmotorische Mitmenschen ^^

Jaja, eine G15 ist schon was schönes, hat sich bestens bewährt...

Larnak 22 Motivator - 37541 - 2. November 2010 - 13:41 #

Bei "leiser" hast du Recht, aber ich persönlich komme mit hohen Tasten deutlich besser klar, sowohl beim Schreiben als auch beim Spielen.
Merke ich schon daran, dass ich (wenn ich mal aufs Notebook angewiesen bin) eine deutlich längere "uääää"-Eingewöhnungsphase durchlaufen muss als wenn ich vom Notebook auf die "hohe" Tastatur zurückkehre.

icezolation 19 Megatalent - 19280 - 3. November 2010 - 1:33 #

Cherry JK-0200 - dolles Teil, hätte nie gedacht dass ich flache Tasten einmal bevorzugen würde - aber das tue ich nun seit einer guten Weile. Dazu dann auch noch übelst leise beim tippseln. Trotzdem klappe ich meinen Bildschirm nicht drauf ;D

Talakos 16 Übertalent - P - 5417 - 1. November 2010 - 22:53 #

Wie immer sehr intressant.. Danke für die Zusammenfassung ;)

Vipery (unregistriert) 1. November 2010 - 22:58 #

"Weniger euphorisch klingen hingegen die Angaben zum Stromverbrauch - die HD6970 wird mit unter 300 Watt, die HD6850 mit unter 225 Watt maximaler Energieaufnahme angegeben."

Ich glaub die genannte 6850 sollte eine 6950 sein. :)
Ansonsten eine schöne und gelungene HW-News... eigentlich wie immer ^^

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. November 2010 - 22:59 #

Danke für den Hinweis, du hast natürlich vollkommen recht. Mit allem was du geschrieben hast *zwinker* .

floppi 24 Trolljäger - P - 52634 - 2. November 2010 - 5:52 #

"Bei gleich bleibender Taktfrequenz könnte sich die Leistung einer HD6870 im Vergleich zu einer HD5870 um 20 - 40 Prozent erhöhen,"

Hier dürfte auch die HD6970 gemeint sein oder?

Tolle News und endlich wieder Bleistifteinsatz, habe ich fast schon reumütig vermisst. ;)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 2. November 2010 - 9:43 #

Auch hier - danke. Irgendwie verknoten sich beim Schreiben von "6970" die Finger noch viel mehr als bei "6870"..

Dennis Ziesecke 21 AAA-Gamer - 30866 - 2. November 2010 - 12:07 #

Ich vermisse Röhrenmonitore übrigens wirklich ein wenig. Mein Brot wird seit dem Umstieg auf LCDs nicht mehr so lecker..

Anonymous (unregistriert) 2. November 2010 - 12:33 #

So eklig wie die warme Luft, die aus den Monitoren gekommen ist gerochen hat, wär ich niemals auf die Idee gekommen da mein Brot draufzulegen ;)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 2. November 2010 - 12:39 #

Ist ja in einer Schüssel gewesen. Und vielleicht hat ein wenig Elektrolyt-Geruch ja das besondere Aroma gegeben, wer weiß?

Madrakor 18 Doppel-Voter - - 10544 - 2. November 2010 - 17:49 #

Najo, wir haben früher auf den LANs unsere Pizzakartons draufgelegt, damit sie länger warm bleibt. Das geht heutzutage leider nicht mehr so einfach. ;-)

Rondrer (unregistriert) 2. November 2010 - 20:30 #

Bei der Abwärme moderner Grafikkarten kann man die einfach auf die PCs stellen :D

icezolation 19 Megatalent - 19280 - 3. November 2010 - 1:34 #

Ich finde ja bis heute noch, dass das Bild von (guten) Röhrenmonitoren von modernen Geräten bis heute nicht erreicht wird.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 3. November 2010 - 1:36 #

Von TN-Bildschirmen sicher nicht. Aber gute IPS-Modelle sind schon was feines. Und trotz der guten Heizeigenschaften von Röhrenbildschirmen würde ich keinen mehr haben wollen.

Larnak 22 Motivator - 37541 - 2. November 2010 - 14:04 #

Über dem Bild der GTX 580 ist ein "nur" zu viel und ganz am Ende des "580"-Absatzes meinst du "abhalten" statt "anhalten", oder?

Sonst wieder ein sehr schöner Überblick, danke :)