Spiele-Hardware: News-Roundup der KW 04/10
Teil der Exklusiv-Serie Hardware-News

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

3. Februar 2010 - 9:52 — vor 14 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Nachdem die vergangene Woche im Schatten des Apple iPad stand, wird auch in diesem Roundup etwas zu diesem Thema zu finden sein. Doch keine Sorge, des geht nicht schon wieder ausschließlich um das iPad sondern ebenso um die ARM-Chips und Tablet-PCs. Weiterhin wollen wir einen Blick auf kommende CPUs mit bis zu sechs Recheneinheiten werfen, und schauen in die nahe Zukunft von ATIs Produktsortiment. Und auch stromsparende Prozessoren sollen die Ehre haben, diesen Newsroundup mit Inhalt füllen zu dürfen.

AMDs Zukunftspläne - sechs Kerne und 25-Watt-Dualcores

Die kommende Produktplattform Leo wird AMD bereits im zweiten Quartal diesen Jahres auf den Markt bringen. Neben dem Chipsätzen der 800er-Reihe besteht diese Plattform auch aus neuen AM3-CPUs mit dem Codenamen Thuban. Diese Prozessoren basieren auf der aktuellen, auch im Phenom II eingesetzten, Architektur K10.5, allerdings darf die Thuban-CPU auf satte sechs Rechenkerne zurückgreifen. Neben 6x 512 kByte L2-Cache teilen sich die Kerne auch noch 6 MByte L3-Cache. Der als Phenom II X6 im Endkundenmarkt betitelte Prozessor nutzt den aktuellen Prozessorsockel AM3 und setzt DDR3-RAM zwingend als Hauptspeicher voraus. Die TDP liegt bei 125 Watt, an der grundlegenden Rechenleistung pro Kern hat AMD nichts geändert, so dass diese CPU nur bei Anwendungen wirklich Mehrleistung verspricht, die auch alle sechs Cores ausnutzen können. Spiele fallen erfahrungsgemäß eher nicht in diese Kategorie, Freunde von Videoschnitt oder Grafikbearbeitung dürften sich über den Kernzuwachs aber freuen. 

Mit dem Zosma wird AMD wohl erneut Resteverwertung betreiben - hierbei soll es sich gerüchteweise um Thuban-Chips handeln, bei denen zwei Kerne deaktiviert wurden. Bereits bei den aktuellen Phenom II X3 ist es unter Umständen möglich, den vierten Kern des Prozessors zu reaktivieren um so mehr Leistung zu einem geringen Anschaffungspreis zu bekommen.

Doch auch Freunde von energieeffizienten Systemen kommen auf ihre Kosten. Seit der Umstellung auf energiesparende 45nm Fertigungsstrukturen bietet AMD bereits einige CPUs mit einer TDP von 45 Watt an. Jetzt kommen noch Doppelkern-Prozessoren mit nur 25 Watt maximalem Energieverbrauch hinzu. Der Athlon II X2 250u taktet mit 2x 1,6 GHz und kann auf nur 2x 512 kByte L2-Cache zurückgreifen während der Rest der Athlon-II-Serie die doppelte Menge L2-Speicher adressieren darf. Auch mit nur 25 Watt TDP ausgezeichnet wird der Athlon II X2 260u mit 2x 1,8 GHz Taktrate. Beide CPUs sind allerdings nicht für den Retail-Markt gedacht sondern sollen nur an OEM-Partner ausgeliefert werden, also für die Hersteller von Komplettsystemen.

ATI vervollständigt Evergreen - neue DX11-Einsteigergrafikkarten gesichtet

In der kommenden Woche wird ATI die letzte Stufe der DX11-Rakete namens Evergreen zünden. Nachdem zuerst die Topmodelle in Form der HD5870 und HD5850 gestartet sind und schnell den Titel der schnellsten Single-Chip-Grafikkarten erlangen konnten, wurde etwas später mit der HD5750 und HD5770 die gehobene Mittelklasse präsentiert. Seit kurzem ist mit der HD5670 eine Karte der unteren Mittelklasse auf den Markt gekommen, welche mittlerweile für unter 70 Euro angeboten wird. Doch es fehlt noch der Cedar genannte Einsteigerchip mit DX11-Support. Erste Internetshops haben jetzt eine Karte mit dem HD5450 gelistet, welcher in halber Bauhöhe und mit passiver Kühllösung nicht nur einen geringen Energiebedarf sondern auch bescheidene 3D-Leistungen verspricht. Noch sind Karten mit diesem Chip natürlich nicht lieferbar, erste Preise liegen bei 55 Euro. Da diese Karten aber sowohl die sehr umfangreichen Videobeschleunigungsfunktionen für Blu-ray-Wiedergabe (auch mit zwei parallel laufenden Streams) als auch Support für OpenCL und DX11 bieten, werden sicherlich einige Home-Theatre-PCs mit diesen Karten ausgestattet werden. An Spiele sollte man mit einem 64 Bit breitem Speicherinterface und massiv reduzierten Shader- und Textureinheiten allerdings eher nicht denken, zumindest nicht an aktuelle Titel. Wer relativ preiswerte Leistung erwartet, sollte sich noch einige Tage länger gedulden, der eigentlich für die kommende Woche angekündigte HD5830 verspätet sich wohl um eine bis zwei Wochen. Dafür liegt die Leistung dieser Karten wohl näher an dem großen Bruder HD5850 als an der kleinen HD5770, preislich könnte die HD5830 für unter 200 Euro auf den Markt kommen. Da sich die Fertigungssituation bei TSMC wieder merklich entspannt, die Ausbeuten im 40nm-Prozess offenbar besser ausfallen als in den letzten Wochen, sind die Highend-Modelle auch endlich flächendeckend erhältlich.

Tablet-Bestandsaufnahme und ARM-drücken

Wer an aktuelle Prozessoren denkt meint meistens CPUs von Intel oder AMD, welche komatibel zum x86-Standard sind. Da das marktbeherrschende Betriebssystem namens Windows (egal ob es als XP, Vista, 7 oder gar 98, 2000 oder NT daherkommt) ausschließlich diese Prozessorarchitektur unterstützt sind andere Systeme für heimische Desktoprechner auch eher uninteressant. Doch bereits der umtriebige Markt der Netbooks lässt ab und an bunte Farbtupfer in der grauen CPU-Einheitssuppe hervorstechen. Da werden Netbooks auf Basis diverser Linux-Systeme angekündigt, welche auf ARM-CPUs mit wundersamen Namen wie Snapdragon oder Tegra setzen. Auch im Bereich der Mobiltelefone haben sich Prozessoren mit ARM-Kern durchgesetzt. Sei es Apples iPhone oder Samsungs Galaxy, das Google-Phone Nexus oder Nokias N97, sie alle nutzen die energiesparenden Systeme auf ARM-Basis. Auch nVidia bietet mit besagtem Tegra eine Komplettlösung mit ARM Cortex-CPU und eigenem Grafikchip an. Doch worum handelt es sich bei diesen ARM-CPUs eigentlich?

Ursprünglich war die ARM-Architektur in den 80er Jahren des vergangenen Jahrhunderts von der Firma Acorn als Konkurrenz zu CPUs wie Motorolas 68000 oder den Intel 8086 entwickelt worden. Viele Computerfans der damaligen Zeit staunten nicht schlecht über die Leistung des Acorn-Archimedes, welcher aufwändige Berechnungen in für damalige Verhältnisse unglaublicher Geschwindigkeit durchführen konnte. Mit nur 8 MHz wurde die Leistung eines 25 Mhz getakteten 386ers erreicht. Diese Takteffizienz zieht sich übrigens bis heute durch die ARM-Architektur, man darf sich also von niedrigen Taktraten wie 600 MHz bei Apples iPhone 3GS nicht verwirren lassen und diese 1:1 auf x86-CPUs umrechnen. Apropos Apple, die Firma Advanced RISC Machines Ltd. wurde zusammen mit Apple im Jahre 1989 gegründet und Apple hält 40% der Anteile des Unternehmens. Intel hält dafür Lizenzen für ARM-CPUs und stellt mit dem xScale auch selbst einen entsprechenden Rechenkern für mobile Endgeräte her. Es verwundert angesichts der Beteiligung von Apple wohl eher nicht, dass der im iPad genutzte A4-Prozessor als Eigenentwicklung angepriesen wird. Dieses ist im ARM-Bereich eh nichts ungewöhnliches, da die Auftraggeber recht flexibel wählen können, aus welchen Komponenten der gewünschte Chip bestehen soll. Neben einer Grafikeinheit (beliebt ist hier die Grafik von PowerVR, welche auch in den Apple-Produkten und vielen anderen Smartphones zum Einsatz kommt, doch auch nVidia mischt in diesem Bereich mit) gibt es spezialisierte Zusatzchips für verschiedenste Einsatzbereiche wie Videodekodierung, Fliesskommaberechnung oder Netzwerkfunktionen. Zusammen mit dem Rechenkern wird das ganze als SoC (System on a Chip) individuell angeboten. nVidias Tegra ist ein solches SoC und beeinhaltet neben einem DualCore-ARM-Cortex-A9 auch noch eine leistungsfähige Grafikeinheit und diverse Zusatzchips unter anderem auch für Videobeschleunigung. Hauptvorteil der ARM-Architektur ist übrigens der sehr geringe Energiebedarf bei für viele Endgeräte ausreichender Rechenleistung. Mit einem durchschnittlichen Energiebedarf von nur 0,5 Watt gilt der Tegra2 von nVidia in diesem Bereich sogar schon als böser Energieverschwender. Zum Vergleich, ein aktueller Notebookprozessor aus dem Hause Intel benötigt bis zu 35 Watt.

Besonders im Bereich der mobilen Endgeräte fühlt sich ein ARM-Prozessor also sehr wohl, da kommt der von Apple mit der Vorstellung des iPad entfachte Hype um Tablet-PCs ganz recht. Auch HP hat mit dem Slate einen Tablet angekündigt und sogar google möchte den Markt beobachten um gegebenenfalls mit eigenen Geräten auf den Markt zu kommen. Ob sich das Betriebssystem Android allerdings ebenso gut für größere Systeme wie Tablets eignet, wie es das iPhoneOS offenbar tut ist noch fraglich. Einige Hardwarehersteller sind offenbar kalt von Apples Preisankündigungen überrascht worden - dass Apple ein Tablet ankündigen wird, war schon länger bekannt, nur sind viele Mitbewerber eher von Einstiegspreisen um die 1000 US-Dollar ausgegangen und äußern sich jetzt etwas bedröppelt, dass sie es nur schwer schaffen werden, für 499 US-Dollar konkurrenzfähige Systeme anzubieten. Nichtsdestotrotz möchte Asus einen EEE-Tablet auf den Markt bringen. Ein solcher Rechner klingt auch irgendwie interessanter als das eher witzlose und dauerverspätete EEE-Keyboard. Und wer weiß, vielleicht integrieren andere Hersteller ja auch Funktionen, die Apple leider "übersehen" hat. USB und Kartenleser wären zum Beispiel nicht zu verachten.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 31. Januar 2010 - 23:33 #

Ich war damals übrigens SEHR fasziniert vom Archimedes. SO schnell! David Braben stellte auf dem Ding eine Version von Virus/Zarch vor, die rasant und flüssig lief, dass man hätte weinen können. Und die Hardware war erfreulich exotisch. Heute hat jeder einen hundert mal so schnellen Prozessor im Handy.. Nun..

Gucky 27 Spiele-Experte - - 78894 - 1. Februar 2010 - 0:56 #

Elite soll auch ganz toll auf dem Archimedes gewesen sein...

melone 06 Bewerter - 1512 - 2. Februar 2010 - 11:20 #

Eins der Probleme des Archimedes, war, daß es wenig Spiele, vor allem gute, gab. War eine schöne Maschine, ganz im Geiste des A1000, aber da gab's halt auch schon schnellere Amigas mit nem 68030 und einem wesentlich größeren Softwarenagebot.

Wenn dich die ELITE-Version des Archis interessiert

http://www.iancgbell.clara.net/elite/arc/index.htm

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Februar 2010 - 9:53 #

Die HD5830 könnte meine neue Grafikkarte sein. Nachdem ich bereits mit HD5770 und HD5750 herumgespielt habe und diese für mich nicht in Frage kommen, da ich schon gerne mehr spürbar Leistung hätte als mit meiner aktuell genutzten HD4850 Golden Sample klingt "unter 200 Euro" und "nahe an der 5850" sehr verlockend. Wenns denn so ist. Die 5850 wäre zwar auch nett und durfte meinen Rechner auch schon von innen sehen, ist aber leider zu teuer, zumal die Preise ja wohl erst einmal nicht fallen werden. Und auch auf die GF100 hoffe ich da nicht - warum sollte ATI auch die Preise großartig senken, wenn der Mitbewerber das doppelte kostet und offenbar eine ganz andere Zielgruppe bedient?

TSH-Lightning 26 Spiele-Kenner - - 65104 - 1. Februar 2010 - 19:53 #

Da kann ich nur zustimmen, denn ich glaube auch, dass die HD5830 in Sachen "Preis-Leistung" ganz vorne mitspielen wird. Ich glaube aber, dass AMD sehr wohl die Preise anpassen kann und auch wird, wenn die Highend GF100 Karten verfügbar (!) sind. Gleichzeitig würde ich darauf tippen, dass AMD bereits an einem Refresh des RV870 arbeitet oder in Kürze mit der Chip-Selektion beginnen wird um ein höher getaktetes Modell der HD5870 zu ermöglichen. Da aber meine Sapphire HD4850, aber eh noch bis zum erscheinen der AMD890FX/GX Chipsätze halten muss, hoffe ich auf einen harten Preiskampf, der aber wohl u.a dank "Tesla" und Nvidias "Monsterchip" nicht stattfinden wird.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Februar 2010 - 21:02 #

Ein Shrink der Evergreens steht wohl eh für Ende des Jahres an, und wenn es nur ist, um das 28/32nm-Fertigungsverfahren bei Globalfoundries zu testen. Und klar, eine fiktive 5890 wird es als Konter auf den GF100 auch geben. Für nächstes Frühjahr ist dann ja schon eine komplett neue Architektur geplant.

melone 06 Bewerter - 1512 - 1. Februar 2010 - 10:02 #

Die Frage ist: Wann gibt's Windows für ARM? Wenn das gebongt wäre, könnte der ARM-Markt geradezu explodieren. Fast jedes Design ist schöner als die x86-Misere, die Intel verbrochen hat.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Februar 2010 - 10:13 #

Hey, mittlerweile kann man sogar bei Medion-Komplettmöhren das A20-Gate im BIOS deaktivieren, es tut sich was :D ..

Und Windows für ARM? Dann, wenn kein Mensch mehr aufgedunsene Komplett-OS-Monster braucht sondern sich mobile Geräte wie eben auch Tablets durchgesetzt haben. Aber dem iPad (und auch anderen Tablets mit teils deutlich schlechterer Bedienoberfläche) gibt hier bei GG ja kaum jemand eine Chance. Wobei, so skeptisch waren die üblichen "hat ja weniger leistung als mein PC/ meine PS3"-Menschen auch bei Netbooks.

melone 06 Bewerter - 1512 - 1. Februar 2010 - 10:28 #

Erst mal brauchst Du ein gutes BS, daß auf Tablets wie auch auf Notebooks funktioniert. Sowas traue ich Linux erst mal nicht (ich meine, wir sprechen hier von Linux), Apple bedingt (erst will man ja den Tablet Markt mit dem abgeschlossenen DRM-iPhone-BS melken) und dann eher doch noch Microsoft (da sie in letzter Zeit wieder etwas fokussierter arbeiten) zu.

Das iPad wird langfristig seinen Weg gehen, weil's durchaus die Käuferschicht dazu gibt. Für Leute wie mich ist's privat aber leider zu geschlossen. Ich möchte ein Tablet mit OSX oder Windows, nicht aber dem iTunes-Consumer-BS vom iPhone; ist dann aber wieder aus der Anbietersicht als Verkaufsplattform von Interesse.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Februar 2010 - 10:46 #

Wobei für den Markterfolg erst einmal die Masse zählt. Und die erreicht das Pad sicherlich, ich sehe die permanenten Nachfragen aus dem Kollegen- und Kundenkreis. Selbst sonst sehr geizige und vor allem auch technikfremde Leute wollen so ein Ding plötzlich haben.

Klar, Softwareentwickler und andere Fachleute, die darauf angewiesen sind, mit dem Ding offen zu arbeiten werden damit natürlich nicht glücklich. Aber dafür öffnet Apple einen Markt (auch für ARM), an den sich in diesem Stile andere Hersteller nie herangetraut hätten. Durchaus ein Pluspunkt :) .

melone 06 Bewerter - 1512 - 1. Februar 2010 - 10:56 #

Ja, wie bereits geschrieben, glaub ich auch an den Markterfolg.

Mich schreckt aber die Aussicht darauf, daß Betriebssysteme immer mehr zu Shops verkommen und den Benutzer weiter in seinen Rechten und Möglichkeiten einschränken. Ein iPad ist nichts anderes als ein größeres iPodTouch, mit all seinen Vor- und Nachteilen.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 1. Februar 2010 - 11:00 #

Tja und vor ein paar Jahren hätte jeder gelacht, wenn man ihm gesagt hätte, dass bald Leute das doppelte und dreifache bezahlen, weil ihr MP3-Player GRÖSSER geworden ist statt kleiner :D ..

Aber das mit dem OS=Verkaufsshop wird doch eh Trend, auch bei MS. Die würden auch, wenn sie könnten. Nur irgendwie fehlt es denen etwas an Finesse, zumindest im PC-Bereich.

melone 06 Bewerter - 1512 - 1. Februar 2010 - 11:28 #

Auf den Foren werden gerne Witzle über die Größe des iPads gemacht. Fakt ist aber: Size matters! Allein durch die Größe erschließt sich das iPad einem ganz anderen Einsatzspektrum und ist als ernstzunehmender Computer anzusehen.

Und genau hier tut's weh, denn es ist eben nicht mehr nur ein Winzigdisplay, wo's nicht groß juckt, ob man auch selbst was dafür entwickeln kann oder nicht, sondern es könnte ein richtig interessanter Computer, auch für den Eigenbedarf, sein.

Natürlich kannst du auch weiterhin analog zum iPodTouch/iPhone für das iPad entwicklen, aber du kannst eben nicht darauf entwickeln oder bist Herr über deine Bits und Bytes; stattdessen bist du Apple auf Gedeih und Verderb ausgeliefert.

Für Sackkratzer, die primär eh nur Inhalt konsumieren ist das weniger ein Problem. Für alle Anderen, die entweder schon mal ungünstig in Apples Approval-Warteschleife hingen oder das Gerät etwas vielseitiger einsetzen wollen, ist es ein Problem. Entgegen Apples Marketingabteilung sehe ich es eben nicht als besonders kreativ an, mir Photos auf dem iPad anzusehen; da stell ich mir dann doch anderen Einsatzformen vor.