HW-News KW12: GTX 680 Benchmarks, A5x versus Tegra 3
Teil der Exklusiv-Serie Hardware-News

PC iOS
Bild von Dennis Ziesecke
Dennis Ziesecke 25819 EXP - 21 Motivator,R10,S10,C9,A8,J10
CPU-Experte: Stapelt bei sich Wärmeleitpasten-Tuben, kennt jeden Pin persönlichGrafikkarten-Experte: Kennt sich mit den neuesten ATI- und nVidia-Karten ausGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreichtDieser User hat uns an Weihnachten 2013 mit einer Spende von 5 Euro unterstützt.

19. März 2012 - 19:10 — vor 2 Jahren zuletzt aktualisiert
Der Kampf beginnt noch in dieser Woche. Nein, es geht nicht um Wladimir Klitschko, sondern um den stetigen Kampf zwischen Nvidia und AMD um die leistungsstärkste GPU auf dem Markt. Nachdem sich AMD bereits im vergangenen Jahr mit der Radeon HD 7970 die Auszeichnung "schnellste Single-GPU-Grafikkarte auf dem Markt" sicherte, schickt Nvidia voraussichtlich noch in dieser Woche eine Karte ins Rennen, die den Titel wieder zurückbringen soll. Das zumindest deuten zahlreiche Gerüchte, geleakte Benchmarks und mutmaßliche technische Daten vor allem aus dem asiatischen Netz an. Nicht-Grafikkarten-Interessierte müssen aber nicht darben: Leistungsvergleiche gibt es ja auch bei anderen Produkten. Diese Woche ist die Spieleveteranen-Gamingplattform "iPad" auf dem Prüfstand und nüchterne Tabellen zeigen, ob Nvidias Tegra 3 Quadcore nicht doch performanter arbeitet als Apples A5X-Doppelkern. Zu guter Letzt gibt es noch etwas Werbung für Werbung: Intel präsentiert in der frisch angelaufenen Kampagne für die flachen Ultrabooks kurzweilig und spaßige Werbeaktionen, wie das Video am Ende der News zeigt. 

Nvidia GTX 680 - etwas schneller als AMDs HD 7970

Offiziell hat Nvidia bislang noch nichts über die kommende GTX 680 verraten – zumindest nicht ohne eine Unterschrift unter einem NDA. Tatsächlich dürften sich aber bereits zahlreiche Karten zum Test in den Hardwareredaktionen eingetroffen sein, denn bereits am 22. März soll der Startschuss für Nvidias erste Grafikkarte in 28 Nanometer Strukturbreite fallen. Dass der Release der Karten kurz bevor steht, zeigt sich auch an den immer zahlreicher werdenden Informationen, die ins Internet gelangen. Inzwischen handelt es sich dabei nicht mehr nur um technische Daten, auch Benchmarkergebnisse sind bereits durchgesickert.

Johannes Kepler stand Pate für die neue GPU-Serie von Nvidia. Der 1630 verstorbene Physiker reiht sich zusammen mit Nikola Tesla und Enrico Fermi in eine Riege berühmter Namensgeber ein, nach denen Nvidia aktuelle Technologien benennt. Im Vergleich zu den jetzt noch aktuellen Fermi-GPUs hat Nvidia das Chipdesign bei Kepler stark überarbeitet. Als erstes erscheinen die GK104-Grafikchips (GK steht dabei für "Geforce Kepler", bei den 400/500-Karten waren die Chips mit "GF" für Geforce Fermi benannt). Sie setzen auf 8 Funktionseinheiten, denen je 192 Shadereinheiten zugeordnet sind. Daraus ergibt sich die Zahl von 1536 Rechenkernen, also rund dreimal so viele, wie auf dem aktuellen Spitzenmodell GF100 bzw. GTX580 vorhanden sind. Getaktet ist die GPU im Referenzdesign offenbar mit 1006 MHz, die getrennten Taktdomänen für GPU und Shader gehören offenbar der Vergangenheit an. Dafür integrierte Nvidia laut Informationen von heise.de einen Turbomodus, der ähnlich arbeitet wie der von Intels Core-Prozessoren und AMDs Bulldozern: So lange die GPU nicht an ein vorab definiertes TDP-Limit stößt, kann der Chip seinen Takt auf bis zu 1058 MHz anheben. Das TDP-Limit liegt bei der GTX680 bei 195 Watt. 


Schmuckloses Referenzdesign: Am 22. März soll die Nvidia Geforce GTX 680 erscheinen

Überraschend hoch getaktet ist wahrscheinlich auch der GDDR5-Speicher der neuen Grafikchips. Zwar sind die Speicherchips mit nur 256 Bit Bandbreite an die GPU angebunden, dafür liegt der Takt mit 6 GHz deutlich über dem Niveau der Mitbewerber. Nvidia-Fans könnten aber unter Umständen angesichts der Speichermenge enttäuscht sein: der Hersteller setzt weiterhin auf 2 Gigabyte VRAM, während bei AMD bereits 3 Gigabyte zum Oberklassestandard gehören. Boardpartner werden schon in absehbarer Zeit Modelle mit 4 Gigabyte Speicher auf den Markt bringen, die stehen dann aber AMD-Karten mit 6 Gigabyte VRAM gegenüber. Über den Sinn und Unsinn solcher Speichermengen darf gestritten werden, Freunde von Texturmods und Nutzer von extrem hohen Auflösungen in Verbindung mit Kantenglättung werden jedoch schnell Argumente "pro Speicher" finden. 

Hohe Auflösungen sind auch für die GTX 680 kein Problem: offenbar integriert Nvidia nun endlich die Möglichkeit, mehr als zwei Monitore gleichzeitig mit einer Grafikkarte zu nutzen. AMD konnte mit der "Eyefinity" genannten Multimonitorfunktion bereits seit den ersten DX11-Karten punkten. Seitdem unterstützen selbst preiswerte AMD-Karten den simultanen Betrieb von mindestens drei Bildschirmen. Bei den Standardkarten will Nvidia ebenfalls drei Monitore gleichzeitig nutzbar machen. Topmodelle wie die GTX 680 sollen sogar vier Bildschirme gleichzeitig ansteuern können. 

Die dabei entstehenden sehr hohen Auflösungen fordern natürlich einige Leistung von den Karten. Erste seriös wirkende Benchmarks im Internet zeigen, dass Nvidia es geschafft hat, die Vorgängermodelle um teilweise bis zu 50 Prozent zu schlagen. So übertrumpft die GTX 680 im Test der Webseite HKEPC beim Extreme-Preset des 3DMark 11 eine GTX 580 um gute 50 Prozent und eine HD 7970 um knapp 20 Prozent. Bei Spielen schaut es allerdings etwas schlechter aus: Battlefield 3 wird zwar etwa ein Drittel schneller dargestellt als mit einer GTX 580, AMDs Radeon HD 7970 liegt allerdings nur 2 Prozent hinter der GTX 680. Bei Batman – Arkham City setzt sich die GTX 680 mit 57 fps etwas vor die HD 7970 mit 49 fps und die GTX 580 mit 42 fps. Tesselation liegt der Kepler-Karte offenbar recht gut, im Heaven-Benchmark setzt sich die GTX 680 um bis zu 12 Prozent von der HD 7970 ab und schlägt die GTX 580 um 33 Prozent.

Dazu soll die GTX 680 einen neuen Kantenglättungsmodus namens TXAA bieten, der bei vergleichbarer Bildqualität deutlich schneller arbeiten soll als das leistungshungrige, aber hübsche MSAA. Zudem unterstützt Nvidia selbstverständlich bereits das im Herbst mit Windows 8 erwartete DirectX 11.1. Einen Mehrwert für Spieler wird dieses Update aber kaum bringen. Erste Onlineshops listen die GTX 680 bereits zu recht hohen Preisen ab etwa 600 Euro. Mit der tatsächlichen Verfügbarkeit der Karten dürfte sich der Preis aber schnell nach unten bewegen.

Angesichts der für manchen Grafikfetischisten eventuell etwas enttäuschenden Benchmarkwerte sollte allerdings nicht unerwähnt bleiben, dass es sich bei dem auf der GTX 680 verbauten GK104-Grafikchips noch nicht um den Vollausbau des Kepler-Chips handelt. Die 104-Reihe stellt bei Nvidia im Normalfall die Performance-Klasse dar, die "untere Oberklasse" also. Die Luxuslösung im Form des GK100 ist allerdings erst frühestens für den Herbst zu erwarten. 


Der kleine Streifen neben dem Alucase ist die Hauptplatine des neuen iPad

Apples neue iPad-CPU vier Mal schneller als Nvidias Tegra 3?


Sowohl Nvidia als auch Apple stellen ihre aktuellen Ultramobil-Prozessoren als wahre Leistungswunder dar und heben vor allem die Grafikleistungen der Chips hervor. Bei beiden Prozessoren handelt es sich um ARM-Prozessoren. Sie sind also nicht mit klassischen Desktop-Systemen kompatibel, sondern für den Einsatz in Tablets und Smartphones vorgesehen. Dafür liegt der Energiebedarf dieser CPUs auch deutlich unter dem eines x86-Prozessors. Benötigt ein Intel Core i5-2500 noch maximal 95 Watt (und ein AMD FX sogar bis zu 125 Watt), kommen ARM-CPUs selbst unter Last und mit integrierter GPU mit weniger als 3 Watt aus – die Leistungsaufnahmewerte bei geringer Belastung sind sogar noch wesentlich beeindruckender. Dafür liegt aber auch die Leistung auf deutlich geringerem Niveau: Nvidias Tegra 3 kann es trotz vier Rechenkernen und einem Takt von 1,6 GHz gerade einmal knapp mit Intels Atom-CPU aufnehmen. 

Doch um Vergleiche ARM vs. x86 geht es gar nicht. Es geht um Vergleiche zwischen Tegra 3 und A5x. Apple bewirbt das neue iPad mit markigen Versprechen wie "vierfache Leistung von Tegra 3". Dabei hat sich beim A5x auf den ersten Blick nur wenig gegenüber dem im iPad 2 und im iPhone 4(S) genutzten A5 geändert. Weiterhin arbeiten zwei ARM Cortex-A9-Kerne mit einer Grafikeinheit von PowerVR zusammen. Auch die Taktfrequenz von 1 GHz ist gleich geblieben. Im Vergleich dazu wirkt Nvidias Tegra 3 deutlich moderner. Hier teilen sich vier Rechenkerne vom Typ ARM Cortex A9 mit 1,6 GHz Takt die Arbeit, für die Grafik sorgt ein Geforce-Grafikkern. Und bei eben diesen Grafikchips liegt der Unterschied begründet: Apple verbaut im A5x den PowerVR SGX 543MP4 mit vier Grafikkernen, Nvidia eine Niedrigenergie-Geforce mit 12 Recheneinheiten. Auf den ersten Blick dürfte Nvidia also erneut vor Apple liegen, was Nvidia bereits zu einigen hämischen Bemerkungen in Richtung Cupertino bewegte.

Apples Aussage, die vierfache Leistung von Tegra 3 zu bringen, stimmt dennoch – und auch wieder nicht. Die reine Rechenleistung der ARM-Kerne hat sich nicht verbessert und hier liegt Apple deutlich hinter Nvidias Vierkernprozessor. Wenn es allerdings um die Grafikleistung der Chips geht, kann der A5x mit großen Schritten an Tegra 3 vorbeiziehen. Das ergaben auch Benchmarks der Kollegen vom Laptop Magazine, wo das neue iPad gegen ein Asus Transformer Prime antreten durfte. Im GLBenchmark erreichte Apples aktuelles Tablet 57 fps, das aktuelle Asus-Tablet kam auf bescheidene 27 fps. Bei der Messung der Texel pro Sekunde erreichte Apple (ebenfalls im GLBenchmark) 1.975.900.672  Texel/Sek. während der im Prime verbaute Tegra 3 auf  404.614.112 Texel/Sek. kam. 

Der Geekbench attestiert dem A5x allerdings nur einen Score von 692 Punkten gegenüber 1571 Punkten bei Tegra 3. Auch die Messewerte im Integer- und Floatingpoint-Test fallen deutlich zugunsten von Nvidia respektive Asus aus (Integer: 614 zu 1391 Punkten, Floating Point: 825 zu 2408 Punkten). Einzig im Speicherbandbreitenintensiven Streaming-Test konnte sich Apple mit 324 zu 266 Punkten von Tegra 3 abheben. Auch den Sunspider-Benchmark konnte Apples A5x für sich entscheiden: hier liegt der Apple-Prozessor mit 1810 ms leicht vor Nvidias Tegra 3 mit 2216 ms. 

Die Ergebnisse zeigen für Fachleute allerdings kein unerwartetes Ergebnis. Dass Apples A5x bei der im Geekbench gemessenen Prozessorleistung gegenüber dem Tegra 3 stark zurückfällt, dürfte niemanden verwundern: zwei Kerne mit geringerem Takt, aber der gleichen CPU-Architektur arbeiten eben doch zumeist langsamer als vier Kerne mit höherem Takt. Den besseren Messwert im Streaming-Test könnten auch Betriebssystemunterschiede zwischen iOS und Android verantworten. Teilweise sogar mehr als die vierfache Leistung erreicht der A5x allerdings bei Grafikbenchmarks wie dem GLBenchmark. Auch wenn sich Nvidia immer wieder für die Grafikleistung des Tegra 3 rühmt, liegt die Performance der 12 Shadereinheiten im Tegra 3 doch deutlich unter der von Apples PowerVR SGX 543MP4. Marktbeobachter verwundern die Ergebnisse allerdings nicht, denn schon der im A5 eingesetzte PowerVR SGX 543MP2 zeigte sich erstaunlich performant und schlug Nvidias Tegra 2 mit seinen 8 Shadereinheiten teils deutlich.

Bei reellen Spielen wie Riptide GP oder Shadowgun hingegen kann Nvidia noch immer zeigen, was sie am besten können: Mit Spieleentwicklern werbewirksam kooperieren beispielsweise. Die Spiele sehen auf dem Transformer Prime deutlich besser aus, da die Entwickler speziell für Nvidia exklusive Grafikeffekte eingebaut haben. Die höhere Auflösung des neuen iPad macht sich dabei laut Laptop Magazine zwar ein wenig in besserer Bildschärfe, vor allem bei Texteinblendungen, bemerkbar. Die zusätzlichen Grafikeffekte des Tegra 3 fallen allerdings schneller auf und wirken eindrucksvoller.  


Bereits Intels CeBIT-Messeauftritt war von Ultrabooks dominiert, jetzt startet eine teure Werbekampagne

Intel startet Ultrabook-Werbung mit kreativen Aktionen

Was würden Menschen alles anstellen, um ein Ultrabook geschenkt zu bekommen? Die flachen und ausdauernden Notebooks wecken nach genauer Betrachtung durchaus Begehrlichkeiten, so dass Intel den Reiz des Kostenlosen für einige werbewirksame Aktionen nutzen konnte. In Bangkok beispielsweise mussten Passanten möglichst kräftig zuschlagen, um eine Vitrine mit einem Ultrabook zu öffnen. Glücklicherweise musste dabei nicht die Vitrine selbst zerschlagen werden. Es reichte, auf einen gepolsterter Sensor in einer Box einzudreschen. Die Vitrine selbst musste hingegen in Jakarta eingeschlagen werden: hier bestand eine Seite aus Sicherheitsglas, ein entsprechender Hammer hing gleich daneben. In der Öffentlichkeit eine Vitrine einzuschlagen, trauten sich die meisten Passanten dann allerdings doch nicht. Wer sich lieber vor anderen Menschen blamiert, konnte ebenfalls in Jakarta ein Ultrabook abstauben. Dabei musste möglichst albern vor einer Kamera getanzt werden, um das Gerät aus seiner Vitrine zu befreien. In Sydney durften Sonnenanbeter am Stand auf Schatzsuche gehen: Intel vergrub hier neben einigen Kisten mit Ultrabooks auch zahlreichen Schrott wie Kinderfahrräder, Waschbecken und andere Metallteile. Freundlicherweise stellte das Unternehmen einige Metalldetektoren zur Verfügung, was die Schatzsuche etwas erleichtert haben dürfte. Zurück in Bangkok durften Ultrabook-Fans mit einer Rolltreppe fahren, um ein Gerät zu gewinnen. Für Rolltreppenfahrer Nummer 10.000 öffnete sich dann die Vitrine. Intels Werbeagentur nahm all diese Aktionen auf und schnitt einige durchaus unterhaltsame Videos daraus zusammen. Auch wenn es sich dabei um Werbung handelt, möchten wir euch die unterhaltsamen Clips in dieser Hardware-News nicht vorenthalten.

Video:

SpecialAgentDaleCooper 12 Trollwächter - Abo - 930 EXP - 19. März 2012 - 16:31 #

ich denke im ersten absatz meinst du, dass nvidia eine neue karte ins rennen schickt, nicht intel.
ansonsten wie immmer sehr schön geschriebene hardware news.

Dennis Ziesecke 21 Motivator - 25819 EXP - 19. März 2012 - 17:30 #

Ich finde ja die Hauptplatine ("Logic Board") des iPad putzig. Ein winziger Streifen Technik neben einem alles beherrschenden Akku. Und dann wundern, dass der Teil um die Chips herum durch das Alucase hindurch heiß wird ;) .

Anonymous (unregistriert) 19. März 2012 - 19:39 #

find ich jetzt nicht so beeindrucken, jede Hauptplatine eines Smartphones ist gezwungenermaßen kleiner ;)

Dennis Ziesecke 21 Motivator - 25819 EXP - 19. März 2012 - 20:13 #

Ich habe auch nicht geschrieben, dass ich die Platine beeindruckend finde. Ich finde sie putzig. Zumal Apple mit einer etwas weniger gequetschten Anordnung oder ein paar sinnvoll platzierten Wärmeableitungen nicht die Hitzeprobleme hätte, über die sich bereits einige Nutzer beschweren.

Crizzo Community-Moderator - Abo - 9778 EXP - 19. März 2012 - 23:08 #

Kurze Info: die Kommentare lösche ich. Weil wir hier persönliche Anfeindungen, zudem wiederholte, nicht dulden!

DarthTK 12 Trollwächter - Abo - 938 EXP - 20. März 2012 - 12:44 #

Wobei ich das schon ein wenig "anmaßend" finde, sowas über die Platine mit der Hitzeentwicklung zu schreiben... Da kann man dann auch wirklich den Spruch loslassen, dass derjenige es doch bitte besser machen soll. Oder wird bei Apple so ein Design von einem Hausmeister entwickelt?

Dennis Ziesecke 21 Motivator - 25819 EXP - 20. März 2012 - 13:27 #

Es ist ein offensichtliches Problem, über das sich zahlreiche User beschweren. Ebenso der Gelbstich einiger iPad-Displays. Wie war das denn mit den Antennen im iPhone4? Es gab Probleme, weil die Antennen eher unpraktisch verlegt waren und Apple hat sich für die Probleme entschuldigt. Wäre die Funktion vorher besser getestet worden, hätte das dem Unternehmen auch auffallen können. Eine einfache Lösung wäre es dann gewesen, die Antennen halt anders zu verlegen, was ja offenbar technisch durchaus machbar ist (ein ähnliches Problem hatte ich bei einem NoName-Tablet, da habe ich das Ding geöffnet und die WLAN-Antenne neu verlegt. War eine Sache von 10 Minuten und hätte den Technikern dort auch auffallen können).

Weißt du, im Gegensatz zu vielen anderen motze ich wenigstens nicht nur sondern mache konkrete Verbesserungsvorschläge. Einige Unternehmen mit denen ich beispielsweise auf der CeBIT gesprochen habe, haben sich darüber sogar sehr gefreut. Das ist nicht anmaßend und von oben herab sondern bestenfalls auf Augenhöhe.

Wenn Jörg den Shogun-Entwicklern sagt, dass diese oder jene Spielidee hierzulande nicht gut ankommt und den Entwicklern Tipps gibt, dann wird das bejubelt. Wenn ich sage, wie ein offensichtliches Hardwareproblem gelöst werden könnte, dann ist es anmaßend? Wo ist der Unterschied? Es gibt SO viel teilweise haarsträubend schlecht gestaltete und designte Hardware auf dem Markt, bei den meisten Produkten wäre es sehr einfach, die Mängel zu beheben. Ist das anmaßend wenn ich konstruktiv Kritik äußere? Wenn ich sogar Vorschläge mache, wie es unter Umständen besser ginge? Rechtfertigt das Kommentare in Großbuchstaben?

DarthTK 12 Trollwächter - Abo - 938 EXP - 20. März 2012 - 17:34 #

Die "Kritik" des anderen habe ich nicht gut geheißen. Sie ist auch berechtigt gelöscht worden.

Software sollte man nicht mit Hardware vergleichen. Klaro wäre dieses Element in diesem Spiel sicher besser gewesen. Aber warum wurde es nicht implementiert? Man tut sich als Nicht-Programmierer, oder Nicht-Ingenieur recht leicht, etwas zu kritisieren. Aber man sollte sich auch, und vor allem zuerst fragen, warum es wohl so ist, wie es ist. Deine Kompetenz in Ehren, ich habe auch Respekt vor dir/ihr (also der Kompetenz), aber du bist halt mehr ein Theoretiker, wenn auch ein sehr erfahrener. Und evtl. sagte man ja auch aus Freundlichkeit auf der Messe, dass das ein guter Vorschlag war. Gerade asiatische Firmen sind fast nur freundlich.

Und ich bejubele sicher keinen Spieletester, weil er meint, das gehört hier nicht rein, oder es gehört rein. Es trägt allerhöchstens dazu bei, ob es zu einer Kaufentscheidung kommt, oder eben nicht. Und trotzdem frage ich mich dann auch, warum es wohl so gemacht wurde.

Vieles sieht eben von Außen viel logischer aus, als es dann tatsächlich (und auch im bezahlbaren Bereich) umzusetzen geht.

Die "Augenhöhe" ist leider zu einem zu sehr geflügelten Begriff geworden, dass ich ihn eigentlich nicht mehr hören mag. Augenhöhe ist es sicher nicht, wenn ich konstruktive Kritik auf einer Messe ausübe.

Trotz alledem lese ich gern deine Berichte. Aber (konstruktive weiß ich nicht, aber sicher ists keine destruktive) Kritik musste sein. Fühl dich bitte nicht angegriffen. Ich danke dir auch für die nun etwas schlüssigere Antwort :)

Dennis Ziesecke 21 Motivator - 25819 EXP - 20. März 2012 - 17:43 #

Ich kenne mich übrigens auch gut genug mit Hardwaredesign aus um da auch aus praktischer Sicht ab und zu mitreden zu können. Und bei zumindest einem Gesprächspartner auf der Messe hat meine Kritik dafür gesorgt, dass ich ein besprochenes Produkt zum Testen jetzt hier habe, mir sogar der Testauftrag vermittelt wurde und eine vorgeschlagene Funktion in die Firmware integriert wird. Das ist dann sicher mehr als nur asiatische Höflichkeit, zumal es kein asiatisches Unternehmen ist ;) .

DarthTK 12 Trollwächter - Abo - 938 EXP - 20. März 2012 - 17:54 #

Dann passt es ja. Freu mich auf weitere Berichte von dir :)

Dennis Ziesecke 21 Motivator - 25819 EXP - 20. März 2012 - 17:58 #

Ich werde es verlinken ;) . Und wenn ich damit auch nur den anonymen Schreihals ärgere..

Amco 16 Übertalent - Abo - 5147 EXP - 20. März 2012 - 11:04 #

Wieder ein klasse Artikel Dennis, besonders die Infos zur 680 haben mir gut gefallen. Danke.

Der Donut mit Kirschfüllung (unregistriert) 20. März 2012 - 12:02 #

Sympathie Klick + Kommentar. Ich klick heute Nachmittag nochmal auf die News ;)

Dennis Ziesecke 21 Motivator - 25819 EXP - 20. März 2012 - 12:15 #

Dann vielleicht sogar mit "lesen" in der Mitte zwischen Klick und Kommentar :P . Aber trotzdem danke für die warmen Worte ;) .

Larnak 19 Megatalent - Abo - 14797 EXP - 20. März 2012 - 19:34 #

Hoffentlich habt ihr an eine effiziente Wärmeabführung gedacht. Nicht dass Dod vor lauter warmer Worte am Ende überhitzt.

Crizzo Community-Moderator - Abo - 9778 EXP - 20. März 2012 - 19:46 #

Im Kopfbereich ist die Isolierung nicht besonders dick. :D ;)

Dennis Ziesecke 21 Motivator - 25819 EXP - 20. März 2012 - 20:10 #

Ey, Lästermaul ;) .

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit
GamersGlobal: Das Spiele-Magazin für Erwachsene
Impressum Nutzungsbedingungen So geht's
GamersGlobal auf Facebook Creative Commons License GamersGlobal auf Twitter.com
Die User-generierten Inhalte dieser Website, nicht aber die redaktionellen, sind unter einer
Creative Commons-Lizenz lizenziert, bis auf zwei Ausnahmen (siehe Nutzungsbedingungen).

Seitenanfang