CeBIT: Gerüchte über Nvidias "Kepler" GTX 680

Bild von Dennis Ziesecke
Dennis Ziesecke 30866 EXP - 21 AAA-Gamer,R10,S10,A8,J10
Dieser User hat bei der 10-Jahre-GG-Aktion mind. 1000 GGG gespendet.Dieser User hat uns zur Japan-Doku-2018 Aktion mit 10 Euro (oder mehr) unterstützt.Alter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat Stufe 11 der Jäger-Klasse erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Reportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschrieben

9. März 2012 - 17:04 — vor 12 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Wer die CeBIT als Nvidia-Fan betritt und nach neuen Grafikkarten oder interessanten Neuigkeiten von der kalifornischen Chipschmiede sucht, wird stark enttäuscht nach Hause gehen: Einige Partner stellen mehr oder weniger interessante Geforce-500-Karten aus, wirklich enthusiastisch werden diese aber nicht beworben. Kein Wunder, stahl AMD doch den Nvidia-treuen Herstellern mit der Präsentation der Radeon HD 7850/7870 kurz vor der Messe komplett die Schau. Wirklich auskunftsfreudig zeigen sich die Hersteller auf der CeBIT ebenfalls nicht, wenn sie auf Nvidias kommende Grafikchip-Generation mit dem Codenamen "Kepler" angesprochen werden.

Die Kollegen von Heise.de hatten da schon mehr Glück und konnten offenbar mehr Informationen aus den Firmenvertretern herausquetschen. Auch der für seine guten Kontakte in die Fertigungsszene bekannte Journalist Charlie Demerjian von semiaccurate.com will Informationen zum Release der ersten Kepler-Karten zugespielt bekommen haben. 

So soll als erste Kepler-Inkarnation der GK104-Chip als Geforce GTX680 auf den Markt kommen. Dieser wird in 28 nm gefertigt und soll über 1536 Shadereinheiten verfügen. Erste Karten werden offenbar mit 2 Gigabyte GDDR5-Speicher ausgeliefert, der über 256 Datenbahnen an die GPU angebunden ist. Die Informationen zu Speicher und GPU-Bezeichnung wurde gegenüber heise von mehreren Herstellern bestätigt. Eine weitere Neuerung betrifft die Taktung der Karten. So sollen die neuen Nvidia-Grafikchips sogenanntes Dynamic Clocking einsetzen, die Taktrate also je nach Bedarf in einem gewissen Rahmen erhöhen können. Diese Funktion soll so ähnlich arbeiten wie Intels Turbo Boost bei den Core-Prozessoren. Diese Funktion könnte zwischen 5 und 7 Prozent Mehrleistung durch die dynamische Taktanpassung aus den Karten herauskitzeln. 

Zum Release der Karten gab es zumindest auf der CeBIT keine genauen Informationen. Charlie Demerjian allerdings will erfahren haben, dass bereits am 08.03. im Rahmen der Games Devoloper Conference (GDC) ausgewählte Journalisten zu einem Technikbriefing geladen wurden. Schon am kommenden Freitag, passend also zum Gamersglobal-Hardwareroundup, sollen die Karten der Öffentlichkeit vorgestellt werden. Dabei soll es dann allerdings auch vorerst bleiben - Demerjian befürchtet nach Gesprächen mit Herstellern einen reinen Paperlaunch, bei dem keine Karten in den Handel gelangen. Dieses soll erst gute zwei Wochen später geschehen, Demerjians Quellen schwanken zwischen dem 23.03. und dem 26.03. diesen Jahres.

Auch zur Leistung gibt es wenig konkrete Informationen. Je nach Quelle schwanken die Aussagen zwischen "bis zu 25 Prozent mehr Leistung als AMDs Radeon HD 7970" und "bei 3DMark 11 der Radeon 7970 unterlegen". Möglich ist auch beides - je nachdem, wie gut die jeweilige Software von der GPU-Architektur profitiert. Epic präsentierte auf der GDC jedenfalls eine neue Version der bereits im vergangenen Jahr gezeigten "Samaritan"-Demo, die mit etwas abgespeckter Bildqualität auf einer Kepler-Grafikkarte flüssig laufen soll. Zum Vergleich: Im Vorjahr benötigte die Demo noch drei GTX 580, nutzte allerdings auch eine aufwändigere und hochwertigere Kantenglättungsmethode. Epic betont, dass im Laufe des Jahres eine noch nicht angekündigte Kepler-Grafikkarte die Demo auch mit der MSAA-Kantenglättung der früheren Präsentation flüssig darstellen soll. Das aktuell eingesetzte FXAA glättet die Kanten mit Hilfe der Shadereinheiten, sorgt aber für eine etwas schlechtere Bildqualität im Vergleich zu MSAA. Zusätzlich wird Epic in den letzten Wochen wohl auch den Code der Demo optimiert haben, um einige zusätzliche Frames herauszukitzeln. 

Video:

Sleeper1982 14 Komm-Experte - 2640 - 9. März 2012 - 18:07 #

Wenn die Topmodelle der kommende Grafikkartengeneration wirklich fast an die Semidemo rankommen wäre das ja mal wieder ein richtiger Schritt vorwärts. Nur leider wird einem die ganze Leistung wohl vorerst meist nicht viel bringen als Gamer da ja leider immer noch die Konsolen die Pc Gamer grafisch ausbremsen bzw sich die wenigsten wirklich die ziemlich teueren Topmodelle kaufen und sich somit ein Spiel mit einer so hohen Anforderung wirtschaftlich wohl eh nicht lohnen würde.
Mit der eventuell bald angekündigten neuen XBox wird sich das zwar wohl ändern aber wohl auch nur kurzfristig.

MachineryJoe 18 Doppel-Voter - 9259 - 9. März 2012 - 20:02 #

Soweit man den Gerüchten glauben kann, wird aber diese neue XBox einen recht alterschwachen Grafikkern haben.

Epic predigt allerdings ständig, dass die neuen Konsolen leistungsfähiger sein müssen, um nicht von Apple oder von Android-Geräten überholt zu werden. Scheinbar ist die neue GPU des iPads erstaunlich leistungsfähig und die Tegra-3 Spiele, die ich bisher getestet habe, waren auch sehr beeindruckend.

Andreas 16 Übertalent - 4672 - 9. März 2012 - 21:00 #

Die neuesten GPUs könnten sie zwar einkaufen und verbauen, allerdings wird dies nicht gerade billig sein, auch mit einem netten Rabatt und der dazugehörigen Einkaufsmenge nicht. Der Preis wird dann auf den Endkunden treffen, dann ist die Frage ob der Kunde pro Konsole mehr zahlen möchte. Ein wieviel-mehr das preislich wohl wäre? Der Konsolenhersteller will ja auch gut verdienen können.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 9. März 2012 - 21:09 #

Das wird nicht nur eine rein finanzielle Frage sein sondern auch das thermische Budget betreffen. Schnelle GPUs brauchen mehr Strom, werden wärmer, brauchen einen leistungsfähigeren Lüfter, ein stärkeres Netzteil.

Andreas 16 Übertalent - 4672 - 9. März 2012 - 21:52 #

Das stimmt und wird damit ja auch wieder teurer. :)

Sleeper1982 14 Komm-Experte - 2640 - 10. März 2012 - 7:52 #

sehe ich auch so, macht schon sinn das die nicht die absolute high end grafikkarte verbauen aus den oben genannten gründen.
Ausserdem finde ich das auch immer wieder erstaunlich wenn man mal die ersten games für xbox360 und ps3 mit aktuellen vergleicht was die noch alles aus den kisten rausholen können nur mit erfahrung und einer anderen grafikengine obwohl die hardware immer noch die gleiche ist (grad bei den exclusivtiteln).

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. März 2012 - 9:38 #

Klar. Aber mir und sicherlich auch den Herstellern geht es nicht nur um den Preis, auch wenn der nicht unwichtig ist. Eine Monsterkonsole mit fetten Lüftern kann man nur noch als PC verkaufen ;) .

Deathproof 14 Komm-Experte - 2085 - 10. März 2012 - 10:41 #

Für GPUs für Konsolen wird bestimmt nicht nur mengen Rabatt eine Rolle spielen.
Der Grafikchip Hersteller wird sich die Entwicklungskosten wohl mit dem Konsolen Hersteller teilen, was den preis um die entwicklungskosten drückt.
Dann wird es wohl auch eine abnahme Garantie Seitens des Konsolen Herstellers geben und zu guter letzt wird es mindestens ein 6 Jähriger Zycklus sein wo nur einmal eine verbesserung geliefert werden muss.
Das ist dann eine Win win situation für beide Parteien und wird bessere GPUs als für PCs bedeuten, zumiendest am anfang.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. März 2012 - 10:48 #

Öh, nein. Also zumindest der letzte Satz. Im PC kannst du Dual-GPU-Grafikkarten mit 300-400 Watt Energiebedarf einbauen, selbst wenn der Konsolenhersteller die GPUs fast geschenkt bekommen würde, kämen solche Energiefresser für eine Konsole nicht in Frage. Selbst zum Start einer Konsole wird die GPU daher maximal auf dem Niveau der PC-Performanceklasse dahindümpeln. Maximal! Also eher darunter.

Deathproof 14 Komm-Experte - 2085 - 10. März 2012 - 11:10 #

Der Preis ist ja auch dementsprechend hoch für solche Karten am PC, für Dual-GPU-Karten.
Was den Energiebedarf betrifft hast du recht, aber bis jetzt konnte auch jeder Laptop noch zu jedem Desktop aufschliessen, ist halt nur teurer und dauert halt länger bis es "Kostengünstig" für die käufer hergestellt werden kann.
Selbst der GPU Hersteller wird wohl interesse daran haben das die Konsole erfolg hat.
Soviel Gewinn wird man wohl nicht an einer GPU haben die nur ein Jahr aktuell ist, die entwicklungskosten mussen ja vielleicht in 3 Monten wieder eingefahren sein um auch noch Gewinn zu erziehlen, das macht das ganze auch wieder teurer für den Desktop.

Ukewa 15 Kenner - 3689 - 10. März 2012 - 8:31 #

Was ich mich schon lange frage, wie ist das eigentlich genau, wenn da immer die Geschwindigkeiten von 2 Karten verglichen wird, bzw wie wird das berechnet?
Nimmt man z.B Karte A mit 100 (fiktive Benchmark-Punkte) und Karte B mit 70. Nun könnte man sagen, "Karte B ist 30% langsamer, als Karte A", denn 100 - 30% = 70.
Man könnte aber auch sagen: "Karte A ist 43% schneller als Karte B", denn 70 + 43% = 100 (gerundet).. ?
Da tun sich Abgründe auf sag ich euch!

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. März 2012 - 9:39 #

Kommt ja nur darauf an, wessen Benchmarks du nimmst. Unabhängige Tester vergleichen die gleichen Benches mit identischen Settings auf ansonsten gleicher Hardware und geben auch prozentgenau die Unterschiede an. Herstellerbenchmarks oder Fanboy-Tests picken sich die tollsten Ergebnisse aus Einzeldisziplinen raus und runden diese auf..

Ukewa 15 Kenner - 3689 - 10. März 2012 - 11:12 #

Es ging mir eher ums Rechnen. Wie ich geschrieben habe, kann der Unterschied ja unterschiedlich sein, je nachdem, von welcher Karte und welchem Rechenweg man ausgeht. Wie ist es denn korrekt gerechnet?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 10. März 2012 - 11:41 #

Du hast ja nur doof gerundet - das Ergebnis ist ohne Rundung doch identisch? 70 + 30 = 100, 100 - 70 = 30 ..

Cloud (unregistriert) 10. März 2012 - 13:54 #

Nee, da ist schon ein Unterschied. Wenn A 100 schnell ist, und B 30% langsamer ist, ist B 70 schnell. Wenn B 70 schnell ist, und A 100, dann ist A um 43% schneller als B. Je nachdem, wie herum man es betrachtet, sind das tatsächlich unterschiedliche Werte. Ausschlaggebend ist halt, was man als Basis heranzieht. Und auf diesem Wege kann man die Werte eben besser bzw. schlechter aussehen lassen.

Ukewa 15 Kenner - 3689 - 10. März 2012 - 16:55 #

Exakt. Genau das hatte ich gemeint. Vielleicht erzähl ich hier ja auch Schmarrn, dann bitte ich um Aufklärung.
Also nochmal für die Übersicht:
100Punkte - 30% = 70Punkte
70Punkte + 43% = 100Punkte
-
Man kann den Unterschied zwischen beiden Karten also mit 30% ODER 43% angeben, je nachdem, was man als Basis für die Rechnung hernimmt - und das ist ein himmelweiter Unterschied!
Meine Frage ist nun, was wäre -von der Mathe her- korrekt?

Cloud (unregistriert) 10. März 2012 - 17:54 #

Mathematisch korrekt ist natürlich beides.

Ukewa 15 Kenner - 3689 - 11. März 2012 - 8:08 #

Ok, daß die Rechnungen beide an sich stimmen ist mir klar, habs mir ja selbst ausgedacht :-)
Aber ein Rechenweg muss doch der "falsche" sein.. Sonst würde ja jeder Hersteller die Rechnung von der für ihn günstigsten Basis aus machen. Mir ist ja klar, daß Marketing gerne so funktioniert, aber das wäre ja schon ein sehr auffälliger Witz.
Wird als Basis also nun die schnellere oder langsamere Karte hergenommen? Wie machen das Zeitschriften, Webseiten etc? Muss ich das jetzt wirklich selbst nachprüfen?? :-)
Wer kann -anhand meiner obigen Beispielrechnung- nun in "%" sagen, was der tatsächliche Geschwindigkeitsunterschied zwischen den beiden Karten ist?
Das geht so natürlich nicht. Man kann also entweder sagen, wieviel B langsamer ist, nämlich 30%, dann ist die Basis 100Punkte. Oder man sagt, wieviel A schneller ist aus der sicht von B, dann sind es 43%.
Es kommt also auf die Wortwahl an -langsamer oder schneller-, man verändert damit die Basis und somit das gefühlte Ergebnis des lesenden. Leck mich, und auf sowas komm ich um 7uhr Am Sonntag morgen, brauch dringend eine Freundin - und entkoffeinierten Kaffee.
-
-
----- Fazit ----
Einen absoluten(!) Unterschied kann man nicht in % angeben, sondern nur in Punkten. Mathe-Profis verzeihen mir bitte diese Aufsehen um diese Grundschulerkenntnis..

Cloud (unregistriert) 11. März 2012 - 9:29 #

"Aber ein Rechenweg muss doch der "falsche" sein.. Sonst würde ja jeder Hersteller die Rechnung von der für ihn günstigsten Basis aus machen. Mir ist ja klar, daß Marketing gerne so funktioniert, aber das wäre ja schon ein sehr auffälliger Witz."

Aber genauso ist es halt. Das kann man machen, wie man will.

Mitarbeit
Jan