Es ist ein wenig ruhig geworden um die CeBIT als Messe für Gaming-Innovationen. In diesem Jahr haben sich Hersteller wie MSI im Fachhandelsbereich „Planet Reseller“ versteckt, Gigabyte und Asus sind gar nicht erst mit eigenen Ständen vor Ort. Dennoch finden sich auf der CeBIT 2013 (05.-09. März, Hannover) einige interessante Highend-Perlen, die auch für PC-Spieler interessant sind.
Am Stand von Inno3D beispielsweise steht mit der i-Chill GTX Titan Accelero Hybrid eine leistungsstarke und effizient gekühlte Grafikkarte aus. Die Karte nutzt Nvidias jüngst vorgestellten GK110-Grafikchip, den Vollausbau der aktuellen Kepler-Architektur. Dessen 7,2 Milliarden Transistoren sorgen nicht nur dafür, dass sich Nvidia mit der Auszeichnung „größter Consumer-Chip der Welt“ schmücken kann, die Titan bringt auch reichlich Leistung auf den Monitor. Um 40-60 Prozent schneller als alle anderen Single-GPU-Grafikchips auf dem Markt zu sein muss die Titan auch enorm viel Energie aufnehmen und in Abwärme umwandeln – könne man meinen. Dem ist allerdings nicht so, Nvidia ist es gelungen die Geforce Titan erstaunlich effektiv zu gestalten. Etwas mehr als 200 Watt wollen aber dennoch abgeführt werden, was eine gute Kühllösung erforderlich macht.
Der Referenzkühler von Nvidia zeigte sich in ersten Tests bereits als erstaunlich ruhig, auch unter Last. Es geht aber noch leiser: Inno3D setzt auf eine Mischung aus Luft- und Wasserkühlung für die i-Chill GTX Titan Accelero Hybrid. Auf der Karte befindet sich dabei ein Kühlkörper mit Anschlüssen für die beiliegende geschlossene Wasserkühlung sowie ein großer Ventilator für direkte Frischluftzufuhr. Die Wasserkühlung selbst ist mit einem ausladenden Lüfter versehen und arbeitet erfreulich leise. Bei der i-Chill-Titan hat der Nutzer die Wahl: Leise und schnell oder lauter und noch schneller. Zwar gibt Inno3D keine Taktraten für die finale Version der Karte an, es wäre aber seltsam wenn der Hersteller sich die Chance zum Übertakten entgehen lassen würde. Notfalls kann der Anwender aber auch selbst Hand anlegen. Da Nvidias GK110 nicht mehr nur durch die maximale Energieaufnahme, TDP, in der Turbo-Leistung gebremst wird sondern auch ein Temperatursensor den Turbo zügelt wenn die GPU wärmer als 80Grad Celsius wird, sind mit der i-Chill durchaus beeindruckende Benchmarkergebnisse denkbar. Ausprobieren lässt sich das auf der CeBIT allerdings noch nicht. Wer Interesse an der Karte hat sollte beginnen zu sparen: Schon die Standardversion der GTX Titan schlägt mit gut 900 Euro zu Buche, die i-Chill Titan dürfte noch ein gutes Stück teurer werden.
Na gut, dass heute Abend 18.000.000€ im Jackpot sind ;)
Ich weiß nicht warum man die kaufen sollte...Im Herbst wird die Next-Gen vorgestellt. Wenn man sich den Sprung von der 4XX auf 5XX und nun 6XX so ansieht wird die 760 TI (für 200-250 Euro) schneller sein als die Titan. Eine 660 TI ist auch schneller als eine 580 und kostet nur die Hälfte. Die 860 TI die im Sommer 2014 wahrscheinlich kommen wird steckt dann zwei davon in die Tasche. Sehe da den Sinn nicht...Der Abstand von der 660 TI auf die Titan ist bei Crysis 3 laut PC Games Hardware in 1080p, Very High Detail nichtmal 20 FPS.
Ich kann mir beim besten Willen nicht vorstellen, dass Nvidia erneut einen solchen Leistungssprung hinlegen wird. Mein Tipp: Die Titan bleibt die Spitzenklasse auch in der kommenden Generation, es folgen allerhöchstens Performance- und Mittelklassemodelle.
Microsoft wird bestimmt mit der neuen Xbox DirectX 12 vorstellen, daher warte ich noch auf die DX 12 Grafikkarten, bevor ich meinen PC aufrüste.
Denk ich net das DX12 kommt. Das wird erst viel später kommen und die derzeitige Gen an Grakas können nur DX11. Denke vor Mitte/Ende 2014 wird da nix mit einer neuen Schnittstelle kommen. Und dann mal sehen was DX12 besser macht. Hab vor kurzem mit meinen Schwager diskutiert das mich die PS4 Ankündigung nicht so geflasht hat und das mir da einige Effekte an der UE4 Engine gefehlt haben gegenüber der PC-Version. Er meinte drauf das die nicht so wichtig sind...genau diese Effekte wie Tesselation sind aber der Unterschied zwischen DX9 und 11. Wenn man die weglässt - warum dann Next-Gen?
Glaube das kommmt so schnell nicht, wenns überhaupt kommt. Heute wird doch schon wieder viel "selbst" gebastelt. Zudem kommen einige Andere Systeme dazu, die mit DX eh nix anfangen können (Android usw.)
MS pennt wieder ein wenig und wird uns mit Win9 bestimmt wieder nen DX12 Zwang vorgaukeln. Allein die Möglichkeiten durch AMD mit den GCN Architektur ( TressFX als Beispiel) ist hier für die Programmieren bestimmt angenehmer.
Da es im Moment eigentlich nur Shooter gibt, die so etwas auch nur annäherend ausnutzen sehe ich mich nicht gezwungen über einen Kauf auch nur nachzudenken
Nextgen Geld verschwenden.