Intel gibt Larrabee für Endkunden (vorerst) auf

PC
Bild von Dennis Ziesecke
Dennis Ziesecke 29544 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Dieser User unterstützt GG mit einem Abonnement oder nutzt Freimonate via GG-Gulden.Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreicht

5. Dezember 2009 - 10:42 — vor 7 Jahren zuletzt aktualisiert

Schon seit einigen Jahren entwickelt CPU-Gigant Intel an einem Grafikchip namens Larrabee. Auf Basis von vielen parallel geschalteten CPUs, welche eng mit dem Pentium-Prozessor verwandt sind, soll mit Larrabee eine neuartige Grafikarchitektur entwickelt werden. Besonders Raytracing sollte damit beschleunigt werden. Nachdem die Entwicklung sich aber mittlerweile um über ein Jahr hinter dem Zeitplan befindet, lässt Intel nun offenbar die Endkundenversion des ambitionierten Projektes fallen. 

Wie cnet.com berichtet, hat Intel gestern bekannt gegeben, dass Larrabee nicht für den Endkundeneinsatz weiterentwickelt wird. Intel wollte sich auf die Bereiche Entwicklung und Highperformance-Computing konzentrieren. Ein Weg, den auch nVidia aktuell mit den ebenso verspätet erscheinenden Fermi-GPUs einschlägt - auch wenn bei Fermi wenigstens noch Hoffnung auf eine Desktop-Version besteht. Allerdings ist jetzt offenbar auch das HPC-Segment (High-Performance-Computing) gestrichen worden, wie Intel-Mitarbeiter Nick Knupffer gegenüber cnet bestätigte. Intel arbeitet an weiteren Larrabee-Designs und möchte die Erfahrungen mit dem jetzt beerdigten Projekt weiterhin nutzen. Unter Umständen revolutioniert ein Spieler-Larrabee die Spielewelt also irgendwann in ferner Zukunft. 

Die Gamingleistung der aktuellen Larrabee-Muster lag Berichten zufolge sowieso maximal auf dem Niveau einer ATI HD4870 oder nVidia GTX260. Für eine Karte, die erst im Laufe des kommenden Jahres erscheinen sollte, ist das auf jeden Fall zu wenig um die zumeist sehr kritische Anwenderschaft zu überzeugen. Dazu kommt die Spezialisierung auf Raytracing, was in Spielen bislang so gut wie gar nicht eingesetzt wird. Eine von Intels Mitarbeiter Daniel Pohl eigens umgeschriebene Quake-Engine sah zuletzt auch mit Raytracing nicht mehr sonderlich konkurrenzfähig aus.

Vermissen wird man Larrabee im Desktopsegment sicherlich nicht. Ein gutes Händchen für spieletaugliche Grafikkarten hatte Intel sowieso noch nie. Es bleibt nur zu hoffen, dass nVidia sich mit Fermi nicht zu ähnlichen Schritten entschließt.  

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 0:22 #

Vielleicht hatten sie auch einfach nur angst vor der Treiberentwicklung ;) .. DAS kann Intel im Grafikbereich ja mal gar nicht, siehe GMA4500.

ganga Community-Moderator - P - 15751 - 5. Dezember 2009 - 0:29 #

Wusste ich gar nich dass Intel an sowas arbeitet, naja scheint mir als 08/15 Endnutzer ja anscheinend auch nicht allzu sehr zu schaden.

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 0:34 #

Ich habe im Rahmen des Hardwareroundups schon das eine oder andere mal über Larrabee berichtet, ein Roundup ist in Artikel auch verlinkt. Sollte halt ein Grafikchip werden, der aus unmengen an x86-Cores (Pentium-basierend) bestehen soll. x86-Kompatibilität, massiv Parallel und hoffentlich schnell war die Vorstellung. Nur, was bringt es dem Endanwender ohne Supercomputer im Keller?

bam 15 Kenner - 2757 - 5. Dezember 2009 - 0:56 #

Schade eigentlich, Larrabee galt eigentlich seit Ankündigung als ein Produkt, das dem GPU-Markt ordentlich frischen Wind geben könnte. Raytracing ist damit aber nicht vom Tisch, das ganze wird kommen, allerdings bleiben wir dann wohl noch ein paar Jahre bei "herkömmlichen" Grafikkarten.

Nvidia wird sich freuen. Die Marktsituation wäre sehr unerfreulich geworden, wenn sowohl AMD und Intel jeweils eigene CPUs und GPUs auf den Markt bringen würden. Da hätte man Nvidia über kurz oder lang vom Markt verdrängen können. So bleibt aber alles beim alten, zumindest vorerst.

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 1:18 #

Naja, da nVidia ja offenbar auch das HPC-Segment bevorzugt, ist die Konkurrenz gerade dort eventuell sogar größer geworden. Intel vergeudet immerhin keine Ressourcen mehr für ein eh offenbar sinnloses Projekt "Larrabee-Desktop-GPU".

Vanguard 13 Koop-Gamer - 1264 - 5. Dezember 2009 - 11:27 #

Was die einschlägigen Hardware-Seiten schon nur anhand der Spezifikationen prophezeit haben merkt Intel selbst erst jetzt, Respekt.

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 12:23 #

Vielleicht hat da endlich mal jemand auf den Zeitplan geschaut und gemerkt: "Huh, wir haben ja schon fast 2010! Dann hätte Larrabee ja schon vor einem Jahr fertig sein müssen. Mist, wie die Zeit vergeht."

Interessant ist nur, dass Intel eigentlich geplant hatte, CPUs mit einer Larrabee-Grafikeinheit zu einem Kombichip zu fusionieren. Das kann man dann wohl jetzt streichen (und war eh eine selten dumme Idee IMO). Vielleicht sollte Intel die IGPs von nVidia lizensieren, eigene Grafiklösungen bekommt man dort wohl nicht hin.

Vanguard 13 Koop-Gamer - 1264 - 6. Dezember 2009 - 11:12 #

Aber damit würde nVidia ihre Position noch weiter schwächen und Intel wäre sicher zu stolz das zu machen. Wenn ich mir ansehe wie die beiden um jede Lizenz zanken...

Stefan1904 30 Pro-Gamer - P - 128500 - 5. Dezember 2009 - 12:30 #

Wahrscheinlich haben sie gemerkt, dass selbst die Highend-Version für den Spielemarkt nicht schneller als aktuelle Karten ist, aber dafür deutlich teurer und stromhungriger (waren da nicht 300 Watt angegeben?). Wenn man dann einfach die Anzahl der Kerne verringert, fällt die Leistung noch mehr ab.

Gut für AMD/ATI. Wenn die Ausbeute beim 40nm Prozess besser wäre, könnten sie momentan ihren Marktanteil immens steigern.

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 12:31 #

Tja, das hätten sie schon vor einem halben Jahr merken können, als es ihnen von allen Seiten gesagt wurde ;) .. Maximal die Leistung einer HD4870 bei deutlich höherem Energiebedarf ist schon nicht nett.

Stefan1904 30 Pro-Gamer - P - 128500 - 5. Dezember 2009 - 12:36 #

Ich bin gespannt, wie ATIs nächste Generation aussehen wird. Sie haben ja prinzipiell ein leistungsfähiges Design, aber immer nur die Shade- und Textureinheiten zu erhöhen, dürfte auch nicht die beste Lösung sein. Der damalige PowerVR-Chip, dessen Technik ja momentan in mobilen Chips verwendet wird, ist da meiner Meinung nach die effizientere Lösung.

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 12:38 #

Ende kommenden Jahres oder spätestens Anfang 2011 wird wohl von ATI schon wieder ein komplett neues Design kommen. Keine Weiterentwicklung sondern eine Neuentwicklung (die ich dann vielleicht auch tatsächlich "revolutionär" nennen werde, sorry melone).

Stefan1904 30 Pro-Gamer - P - 128500 - 5. Dezember 2009 - 12:44 #

Das dürfte dann das neue Design für den Xbox-360-Nachfolger werden!? Die Xbox 360 hatte ja schon Techniken implementiert, die ATI erst später bei den PC-Grafikchips eingeführt hat.

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 12:52 #

Naja, die Box hat Techniken implementiert, die ATI bisher noch GAR NICHT im Desktopsegment nutzt. 20MB embedded DRAM-Cache auf der GPU sorgen bei dem Chip zum Beispiel für recht gute Leistungen. Scheint sich im Desktop-Segment aber offenbar nicht zu lohnen, wohl auch, da hier deutlich mehr (und teils auch schnellerer) Grafik-RAM genutzt werden kann.

Anonymous (unregistriert) 5. Dezember 2009 - 17:01 #

"Es bleibt nur zu hoffen, dass nVidia sich mit Fermi nicht zu ähnlichen Schritten entschließt."

Das glaube ich nicht. Ich habe irgendwo gelesen, dass nvidia zwar mit Gaminggrafikkarten ordentlich Umsatz macht, aber am meisten Profit machen sie durch Karten für Server und GPU Berechnungen und dafür sind sie Klasse und auch darauf ist Fermi ausgerichtet.

Rondrer (unregistriert) 5. Dezember 2009 - 19:11 #

Das is doch genau die Aussage des Satzes. Es bleibt zu hoffen, dass sich nicht auch Nvidia nurnoch auf den HPC Markt konzentriert und eben auch neue Karten für den Gaming-Markt entwickelt, auch wenn dieser anscheinend momentan nicht ganz so lukrativ ist.

Anonymous (unregistriert) 5. Dezember 2009 - 20:49 #

"Unter Umständen revolutioniert ein Spieler-Larrabee die Spielewelt also irgendwann in ferner Zukunft":

Was? Das war jetzt alles? Nach soviel großspurigen Reden und News in denen von Revolution die Rede war jetzt so ein Abgang? Also war der Chip nicht mehr als reine Vaporware...

Intel wollte anscheinend nicht zugeben das der Larrabee im Punkt Leistung eigentlich weit unter einer Radeon 4870 liegt, nicht umsonst gab es nie einen vorzeigbaren Prototypen und auch keine aussagekräftigen Benchmarks. Naja jetzt ist erstmal der Ofen aus, mit Onboard Chips für die Büros machen die ja auch genug Geld.

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 20:50 #

Stark übertaktet hats 1 TFlops geleistet. Recht wenig gegen die mehr als 2 TFlops einer HD5870 ;) ..

Anonymous (unregistriert) 5. Dezember 2009 - 21:03 #

2,7TFlops theoretisch...
die 1TFlops vom Larrabee wurden im SGEMM Benchmark erreicht,wo die 5870 in etwa auch auf diesen Wert ~1 kommen sollte

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 21:04 #

Dann werde ich noch ein "stark übertaktet" in den Raum ;) ..

Anonymous (unregistriert) 5. Dezember 2009 - 21:13 #

ich bezweifel nicht die grundsätzliche Aussage, dass die 5870 auf höhere Werte kommt,ich wollt nur dieses Detail erwähnen ;)
Einigen wir uns auf die doppelte 'Performance' der 5870 ^^

Dennis Ziesecke Freier Redakteur - P - 29544 - 5. Dezember 2009 - 21:20 #

Passt schon :) ..

Ninfea 05 Spieler - 57 - 6. Dezember 2009 - 5:48 #

Ich kannte bisher nur den Begriff Raytraced Lighting.

Tobias (unregistriert) 6. Dezember 2009 - 12:15 #

Ja, genau darum geht's auch. Das Problem ist nur, das Raytracing extrem rechenaufwändig ist und bisher auch nicht beschleunigt werden konnte - gleichzeitig lässt sich das Verfahren nicht in die gängigen Darstellungsverfahren implementieren. Larrabee sollte also eine für Echtzeitberechnungen Technik so beschleunigen, dass sich Spielszenen damit berechnen lassen.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit
Tchibo