Intel: Haswell-GPU erreicht Leistung von Nividias 650M

Bild von Alex Althoff
Alex Althoff 20931 EXP - 20 Gold-Gamer,R10,S3,C6,A10,J10
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Archivar: Hat Stufe 10 der Archivar-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreichtBronze-Jäger: Hat Stufe 5 der Jäger-Klasse erreichtVielspieler: Hat 250 Spiele in seine Sammlung eingetragenBronze-Archivar: Hat Stufe 5 der Archivar-Klasse erreicht

15. Januar 2013 - 17:19 — vor 4 Jahren zuletzt aktualisiert

Auf der CES 2013 hat Intel die Leistung des "HD 4600"-Chips unter Beweis gestellt. Dieser Kern ist Bestandteil der neuen Haswell-Prozessoren, mit denen Intel Mitbewerber AMD und ihren APUs den Rang ablaufen will. Aus diesem Grund, so Intel, habe man sehr viele Ressourcen in die Entwicklung der GPU-Einheit investiert. Bei dem beigefügtem Video seht ihr auf der linken Seite Dirt 3 in 1080p ohne Kantenglättung, das auf einem System mit Haswell-Prozessor läuft. Auf der rechten Seite im Video ist das Bildmaterial von einem Laptop zu sehen, in dem eine Geforce 650M sowie ein Ivy-Bridge-Prozessor verbaut ist.

Wie das Video zeigen soll, arbeitet das APU von Intel nur geringfügig langsamer als der Nvidia-Grafikchip. Damit wäre Intel mehr als nur nahe an Konkurrent AMD und deren APU dran. Für Nvidia wären es wohl ebenso schlechte Nachrichten, da viele Grafikkarten im unteren Leistungssegment verkauft werden, die künftig durch Intel-APUs selbst abgedeckt werden könnten. Ein größerer Einbruch in diesem Segment wäre bei Nvidia also denkbar, ein erhöhter Fokus des Grafikkartenherstellers auf das Angebot von High-End-Karten eine mögliche Konsequenz. Die Haswell-Prozessoren sollen Mitte 2013 erscheinen und bis dahin 10 Prozent mehr Leistung bringen als die Vorgängergeneration Ivy-Bridge.

Video:

Fischwaage 17 Shapeshifter - 6765 - 15. Januar 2013 - 17:32 #

Beeindruckend...braucht man bald vielleicht schon keine externe Grafikkarte mehr?! Huuui, spannend.

Alex Althoff 20 Gold-Gamer - 20931 - 15. Januar 2013 - 17:46 #

Die Treiber sollen laut Intel noch gepusht werden ;) Da soll noch was nach oben gehen. Für mein Desktop seh ich etz kein Grund auf Haswell umzurüsten, da eh extra Graka drin ist.

Aber im Bereich Ultrabooks würde das gut rüberkommen. Oder Tablets. Wäre dann ein Grund Ende des Jahres da mal zu gucken.

Dennis Ziesecke Freier Redakteur - P - 29583 - 15. Januar 2013 - 18:11 #

Das mit den Treibern haben die Intel-Leute mir auch schon zu letzten CeBIT hoch und heilig versprochen ;) . Dummerweise sind die Treiber immer noch genauso unbrauchbar wie eh und je :( .

CptnKewl 20 Gold-Gamer - - 22577 - 15. Januar 2013 - 20:37 #

Bis auf Netzwerkkartentreiber (für die guten Intelkarten) geb ich dir da uneingeschränkt recht

Xalloc 15 Kenner - 2863 - 16. Januar 2013 - 10:09 #

Ich habe mich auch schon mit dem Inteltreiber rumgeärgert. Mein Monitor hat leider standardmäßig einen zu hohen Gammawert. Jetzt gibt es ja die Windows Farbkalibrierung, damit kann ich das zu meiner Zufriedenheit einstellen. Aber denkste, der Inteltreiber setzt das immer wieder zurück! Im Inteltreiber selbst kann ich den Gammawert nur hoch stellen, nicht runter ...

Mein Tower mit Nvidia Grafikkarte behält ganz brav die Windowsfarbkalibrierungseinstellung.

Dennis Ziesecke Freier Redakteur - P - 29583 - 16. Januar 2013 - 11:03 #

Ach, AMD-Fanboy, das plapperst du nur nach ;) :P

JakillSlavik 17 Shapeshifter - 7072 - 16. Januar 2013 - 15:04 #

jupp sehe ich auch immer wieder :(

NedTed 18 Doppel-Voter - P - 11749 - 15. Januar 2013 - 17:44 #

Eigentlich hätte ich jetzt geschrieben - früher oder später wird alles wieder zusammenwachsen. ABER HALT! Gakai und Co. werden vorher bereits die Hardwarelandschaft umkrempeln.

Merawen 11 Forenversteher - 637 - 15. Januar 2013 - 18:23 #

Eine 650m ist ja noch nicht mal die schnellste mobile Version, von den X mal schnelleren Desktop Versionen ganz zu schweigen. Und ohne eine genaue FPS Angabe ist das ganze eh total sinnfrei. Aber Hauptsache Intel macht mal wieder viel Wind.

Alex Althoff 20 Gold-Gamer - 20931 - 15. Januar 2013 - 18:30 #

Aber schon eine große Steigerung zur HD 4000 die solche Spiele in low Details und unter 20 FPS nur darstellen kann. Klar wird man eine extra Grafik einbauen. Aber in Ultrabooks und Tablets könnte das sehr gut ankommen. Guck dir nochmal Razors Edge an. Da ist eine 640m LE eingebaut. Also nochmal ne Ecke langsamer.

Dennis Ziesecke Freier Redakteur - P - 29583 - 15. Januar 2013 - 18:39 #

Die 640LE ist nicht einmal zwingend viel langsamer als die 650M. Letztere gibt es in einer Version mit GDDR5 und in einer Version mit DDR3. Die Variante mit DDR3 entspricht bis auf den Takt mehr oder weniger der 640LE. Und ich bezweifle, dass im Test-Notebook eine 650M mit GDDR5 verbaut war.

Bei iGPUs muss IMMER berücksichtigt werden, wie stark die Wärmeentwicklung sich auf den Betrieb mit der CPU auswirkt. Immerhin konzentriert sich die Abwärme bei kombinierten Chips auf einen sehr kleinen Raum während bei dedizierten GPUs mehr Platz zur Wärmeableitung vorhanden ist. Ergo: Dedizierte GPUs werden *immer* schneller sein als iGPUs.

Intel hat bei Haswell offenbar viel Power rausgeholt, da gebe ich dir recht. Aber die Lobeshymnen hat Intel sich noch nicht verdient, dafür müssen sie erst brauchbare Treiber zeigen und beweisen, dass ihre GPU auch im Alltag konkurrenzfähig ist.

Novachen 18 Doppel-Voter - 12880 - 15. Januar 2013 - 21:10 #

Mich würde ja ehrlich gesagt der Energieverbrauch von dieser Lösung viel mehr interessieren.

Was interessiert es mich, wenn ich ein Spiel auf Hohen statt Mittleren Details spielen kann, der Akku vom Durchschnittslaptop unter Volllast aber nach vielleicht 2-3 Stunden den Geist aufgibt?

Da nehme ich persönlich lieber die Lösung die ein paar weniger FPS liefert aber vielleicht das vielfache an zusätzliche Zeit gibt ohne nachzuladen.

Ich komme bei meinem Laptop auf unter Volllast auf rund 8-10 Stunden Betrieb mit einer Ladung... aber mein Laptop hat ja extra zwei Akkus für sowas. Tatsächlich sieht es also so aus, dass einer für ca. 4-5 Stunden reicht. Idealfall ist das ganze so gemacht, dass während der Laufzeit für den einen, der andere Akku auflädt um ggf. später während des Betriebes den anderen abzulösen.

Dazu kommt, dass ein sparsamer Energieverbrauch auch bei Desktop PCs immer wichtiger wird.

Dennis Ziesecke Freier Redakteur - P - 29583 - 15. Januar 2013 - 21:21 #

Ivy Bridge kommt auf 35 Watt im Laptop (bei den "klassischen" CPU-Versionen, leistungsreduzierte Modelle kommen auf 25, 17 und inzwischen 7-13 Watt). Haswell soll zugunsten erhöhter Leistung etwas mehr Energie aufnehmen, zumindest im Desktop. Beim Notebook wird Intel voraussichtlich auf ein Plus an CPU-Power verzichten und eher die GPU pushen, dafür die TDP aber bei 35 Watt belassen.

Intels Tick-Tock-Modell sieht vor, immer abwechselnd eine neue Architektur (jetzt: Haswell) und einen Fertigungs-Shrink zu veröffentlichen. Auf Haswell wird also eine geschrumpfte Version mit dieser Architektur folgen, die dann weniger Energie aufnehmen dürfte.

Vaedian (unregistriert) 15. Januar 2013 - 18:39 #

Haswell-Prozessoren sind hauptsächlich für mobile Geräte gedacht, daher auch der vergleichsweise geringe Leistungszuwachs zu IvyBridge. Für Laptops und Tablets sind das aber super Aussichten.

Was der Text hier nicht erwähnt, obwohl es überall im Teaserbild steht, ist, dass Intel viel Entwicklungsarbeit in die Energieeffizienz der neuen Prozessoren investiert hat. Intel-CPUs haben den Ruf, wahre Energiefresser zu sein. Deswegen hat sich ARM in den letzten Jahren auf fast allen Smartphones und Tablets durchgesetzt. Das will Intel mit Haswell ändern.

http://www.golem.de/news/neue-roadmap-intel-mit-billig-smartphones-und-7-watt-cpus-1301-96744.html

Für Spiele-PCs ist es ziemlich egal, ob Haswell oder IvyBridge drin ist. Man wird weiterhin eine externe Grafikkarte brauchen. Intel will es sich mit Nvidia ganz sicher nicht auf Dauer verscherzen. ATI haben sie ja schon an AMD verloren.

Dennis Ziesecke Freier Redakteur - P - 29583 - 15. Januar 2013 - 18:40 #

Intel-CPUs haben im x86-Bereich im Gegenteil sogar den Ruf extrem energiesparend zu arbeiten. Das mit den Energiefressern war AMD mit Bulldozer - und Intel mit dem P4 vor vielen Jahren. Klar, im Vergleich zu ARM schluckt eine Intel-CPU sehr viel Strom. Dafür gibts aber auch ein vielfaches der Leistung.

COFzDeep 19 Megatalent - P - 15099 - 15. Januar 2013 - 18:42 #

"Intel-CPUs haben den Ruf, wahre Energiefresser zu sein."

Na das lass mal Dennis nicht hören ;)
Aber auch ich kann dir sagen - das stimmt so nicht direkt. Man muss den Standpunkt beachten - wenn du von AMD CPUs aus rüberschielst zu Intel, dann ist Intel deutlich besser. Wenn du natürlich von ARM-Seite aus guckst, dann sind Intel-CPUs durchaus noch verbesserungsdürftig, was die Stromaufnahme betrifft ;)

edit: Mist, da war der Dennis schneller als ich ^^ Ich hab dich ja gewarnt ;)

Vaedian (unregistriert) 15. Januar 2013 - 18:48 #

Ich hab die ganze Zeit von mobilen Geräten geredet und den Markt dominiert halt ARM, was Intel mit Haswell ändern will. Da kann sich der Dennis auf den Kopf stellen und im Dreieck springen, wenn er will. :)

Dennis Ziesecke Freier Redakteur - P - 29583 - 15. Januar 2013 - 18:49 #

Notebooks sind auch mobile Geräte, da dominiert ARM mangels Leistung aber gar nichts. Ganz ohne auf den Kopf stellen ;) .

fxcvsfdlö (unregistriert) 15. Januar 2013 - 19:37 #

Das ist nun wirklich kompletter Qutasch, Haswell konkurriert in keinster Weise mit ARM-SoCs.

Die Konkurrenz für ARM-Prozessoren sind, mehr oder weniger erfolgreich, die Atoms von Intel.

bolle 17 Shapeshifter - 7613 - 15. Januar 2013 - 19:10 #

Der Ruf mit dem Energiefresser ist leider überholt, ein i5 im Idle ist so sparsam wie wenig andere Prozessoren. Ich dachte auch, AMD ist effizienter, aber das stimmt leider echt nicht mehr.

Dennis Ziesecke Freier Redakteur - P - 29583 - 15. Januar 2013 - 19:40 #

Wenn er sich nur auf Tablet-CPUs beschränkt mag die Aussage ja sogar stimmen. Aber eben auch nur im Ultramobil-Bereich, sonst nicht so recht.

Alex Althoff 20 Gold-Gamer - 20931 - 15. Januar 2013 - 20:10 #

http://www.computerbase.de/news/2013-01/intel-stellt-ivy-bridge-mit-7-watt-sdp-13-watt-tdp-vor/
Da gibts auch was dazu ;)

Dennis Ziesecke Freier Redakteur - P - 29583 - 15. Januar 2013 - 20:45 #

7 Watt ist aber immer noch drei- bis viermal so viel wie ein ARM-Quadcore für Tablets. Von 13 Watt reden wir besser gar nicht erst, das ist eine für schmale Tablets absolut indiskutable Verlustleistung.

CptnKewl 20 Gold-Gamer - - 22577 - 15. Januar 2013 - 20:45 #

Er hat doch auch gesagt der Ruf! Das die Fakten gegen den Ruf sprechen sind doch 2 paar Schuhe.
Genauso wie Apple den Ruf hat, tolle Smartphones herzustellen kommt das auf die Betrachtungsweise und die Anforderungen an...

Dennis Ziesecke Freier Redakteur - P - 29583 - 15. Januar 2013 - 21:03 #

Nur um mein Gemeckere einmal etwas zu relativieren: Ich finde es beeindruckend, welche Leistung Intel mit der Haswell-GPU zu erbringen versucht. Und AMD dürfte sich tatsächlich recht warm anziehen müssen wenn Intel irgendwann einmal brauchbare Treiber veröffentlicht. Dennoch und das bleibt hier unerwähnt: Trinity hat schon jetzt eine derart hohe GPU-Leistung. Zumindest wenn wir vom wahrscheinlichen Fall ausgehen, dass es sich um eine DDR3-650M handelt.

Was für Intel aber vielleicht noch viel wichtiger ist: Intel erlaubt jetzt auch Opensource-Entwicklern und Freeware-Programmierern die in die CPU integrierten Funktionen zur Videoumwandlung zu nutzen. Diese fest verdrahtete Funktionseinheit arbeitet sogar noch effektiver als CUDA und OpenCL bei der Umwandlung von Videos und dürfte damit für einige Leute ein echter Kaufgrund für eine Intel-CPU werden. Wenn die Funktionen auch bei den 7-Watt-Modellen freigeschaltet sein sollten, dann wären erstmals auch Tablets in der Lage, Videomaterial on-the-fly zu konvertieren.

Name (unregistriert) 15. Januar 2013 - 22:45 #

Du bist halt einfach ein AMD-Fanboy.

Intel-Treiber sind wahrlich nicht die Besten, aber wenn das Leute wie du sagen, klingt es immer so nachgeplappert und nicht nach Selbsterfahrung.

Die wichtige Neuigkeit ist, dass sich Intel seiner Probleme bewusst ist und sich versucht zu verbessern. Insofern ist Haswell recht beeindruckend. Bezüglich Stabilität ziehe ich eine Intel-Umgebung jederzeit AMD vor.

Wird spannend sein zu sehen wie sich das Ganze in ein paar Jahren entwickelt hat. Intel kämpft sich von der TDP nach unten während AMD versucht Performance-mäßig nach oben zu strampeln. Nvidia macht viel Lärm um Wenig und Apple (Imagination) verbessern sich indes klammheimlich.

Dennis Ziesecke Freier Redakteur - P - 29583 - 15. Januar 2013 - 23:06 #

Ich bin momentan sogar ein Intel-Fanboy, ich liebe Sandy- und Ivy-Bridge. Zum Thema "Erfahrung" und "Nachgeplappert": In meinem Notebook habe ich eine Sandy-CPU mit HD3000 und kenne daher Treiber und Probleme. Selbsterfahrung, sowas halt.

Stabil sind aber beide Umgebungen. AMD war damals mal knifflig aufgrund mieser Chipsätze, ist heute aber nicht schlechter als Intel. Nur was die Leistung angeht können AMD-CPUs absolut nicht mithalten, zumindest bei der CPU-Power.

Wie kommst du eigentlich darauf, dass ich nur nachplappere? So wie du das sagst klingt das irgendwie ebenfalls nachgeplappert. Ich mag spannende Technik. Und Haswell ist definitiv spannend.

CptnKewl 20 Gold-Gamer - - 22577 - 15. Januar 2013 - 23:18 #

Die zeiten wo AMD instabil war, war sicher noch als VIA diese beschissenen Chipsatztreiber hatte...und man noch Cryix-CPUs in billigen x86er kompatiblen Modellen verkauft hat :-)

Sören der Tierfreund (unregistriert) 16. Januar 2013 - 8:19 #

Hey aber damals hatte AMD sogar mit den 1400er Thunderbird C einen der schnellsten (und heißesten) Prozessoren ;D

Spezieh 18 Doppel-Voter - 9409 - 16. Januar 2013 - 6:32 #

Na immerhin. Bisher waren die Intelgrakas kaum für irgendwas zu gebrauchen. Aber das ist der Bereich in dem Intel viel schneller größere Leistungssprünge machen kann als bei dem CPUs. Ist ja nun wohl interessant genug seit wegen der Tablets und co alles mäglichst klein werden muss.

Jadiger 16 Übertalent - 4995 - 16. Januar 2013 - 11:16 #

In ein paar Jahren kann jeder PC aktuelle Spiele ohne Grafikkarte, ich glaub das wird den Markt sehr vergrößern. Ich hab das Gefühl das die Plattform PC bald einen aufwind bekommt. Windows 8 ist ja praktisch das Menü einer 360 schon drin wenn das mal nichts zu sagen hat was bald kommt. Steambox kommt auch noch die nächsten Jahre könnten spannend werden.

Alex Althoff 20 Gold-Gamer - 20931 - 16. Januar 2013 - 11:26 #

Seh ich auch so. PC Spiele kommen ja weiterhin und die alten kann man noch spielen. Aber das Grundgerüst außen wird sich ändern. Statt einem Tower wird ein kleiner Kasten (Steambox) Tablet, Ultrabook dastehen. Die schweren Laptops werden irgendwann in naher Zukunft einfach keine Chance mehr haben. Ebenso große Tower.

Die Hersteller sind nun gefragt die Grafikkarten in kleinerer Form zu bringen und wie sie die Kühler noch kompakter machen als heute. Die Geforce 650 zb. ist grad mal 12 cm lang. Nun die Leistung einer 670 (28cm) auf diese kleine Karte bringen. Evtl. statt einem großen Lüfter mehrere kleine montieren zb.

Dennis Ziesecke Freier Redakteur - P - 29583 - 16. Januar 2013 - 11:32 #

Es geht ja auch immer noch darum, eine gewisse Menge an Abwärme in ausreichender Zeit abzuführen. Dabei gibt es die Lösung, einfach weniger Wärme zu produzieren, was auch einen geringen Energiebedarf zur Folge hat, die Leistungssteigerung aber negativ beeinträchtigt. Oder man nimmt einen großen, langsamdrehenden Lüfter, der wenig Lärm macht und viel Wärme abtransportiert (in Verbindung mit einem ausreichend dimensionierten System aus Kühlrippen, was wieder Platz kostet). Oder eben mehrere kleine Lüfter, die aber auch eine größere Fläche Kühlrippen benötigen um überhaupt "an die Wärme zu kommen". Dazu kommt, dass diese kleinen Lüfter schneller drehen müssen und aufgrund von entstehenden Verwirbelungen oft weniger effektiv arbeiten. Und sie sind fehleranfälliger.. Es hat schon einen Grund, weshalb es so gut wie keine Karten mit vielen kleinen Lüftern gibt: Es ist nicht sonderlich effektiv und spart letztlich nicht einmal Platz, da so ein Lüfter ja auch immer noch einen Rahmen hat.

Letzten Endes wird dein Traum also darauf hinauslaufen, weniger potente aber dafür kleinere Grafikkarten zu nutzen. Die Gamer-Flaggschiffe sind ja auch nicht deshalb so groß weil es sich damit besser angeben lässt sondern weil es einfach nötig ist ;) .

joker0222 27 Spiele-Experte - P - 76332 - 16. Januar 2013 - 16:39 #

Fehler in der Überschrift: Nividias !

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit