AMD bald ohne ATI-Logo?

Bild von Dennis Ziesecke
Dennis Ziesecke 29505 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreicht

16. August 2010 - 13:59 — vor 6 Jahren zuletzt aktualisiert

Müssen wir uns von einer lange etablierten Marke im PC-Bereich verabschieden? Laut Informationen, die dem ATI-Forum aus anonymer Quelle zugespielt wurden, plant AMD offenbar, sich von der Marke ATI zu trennen. Der Verzicht auf eine separate Marke für Grafikhardware soll helfen Geld zu sparen und Transparenz in den eigenen Produktreihen schaffen. 

Ende 2006 übernahm der CPU-Hersteller AMD die kanadische Grafikschmiede ATI für 5.4 Milliarden US-Dollar. Das Unternehmen wurde komplett bei AMD eingegliedert, lediglich der Firmenname ATI blieb erhalten. AMD verschaffte sich so Know-How im Chipsatzmarkt und schuf eine Grundlage für kommende Prozessoren mit integrierter Grafikeinheit. Und eben diese kombinierten Chips sollen der Hauptgrund für den Verzicht auf den Markennamen ATI sein. Unter dem Motto "The Future is Fusion" plant AMD eine revolutionäre Wandlung im CPU-Markt. So sollen die vielen parallel arbeitenden Funktionseinheiten der eigenen Radeon-Grafikchips als Co-Prozessoren zusätzlich zur CPU eingesetzt werden. Natürlich können diese integrierten Grafikeinheiten auch die Bildausgabe übernehmen, sogar einfache 3D-Spiele sollen möglich sein, es wird von der Leistungsfähigkeit moderner Einsteigergrafikkarten wie der HD5550 gemunkelt. Diese Fusion-Prozessoren müssten im Falle des Fortbestandes der Marke ATI allerdings sowohl mit AMD- als auch mit ATI-Logo beworben werden. Aktuelle Logos von AMDs Vision-Konzept vermischen indes jetzt schon die Firmenfarben von AMD und ATI indem sie das Vision-Logo in einen schwarz umrandeten roten Balken setzen.

Offenbar hofft AMD auch, dass der Markt sich nach nunmehr vier Jahren an den Grafikkartenhersteller AMD gewöhnt hat und die Zugkraft von 25 Jahren ATI-Marktpräsenz  nicht mehr nötig ist um kommende Radeon-Grafikbeschleuniger verkaufen zu können. Durch Fusion wird eh eine komplett neue Marke für den Office-Markt geschaffen. Bereits Ende dieses Jahres könnte also das Ende des ATI-Logos erfolgen.

Crizzo 18 Doppel-Voter - P - 11026 - 16. August 2010 - 17:01 #

Naja, mit der Umbenennung wäre ich sehr vorsichtig. Ich kann mir nicht vorstellen, dass viele Leute AMD mit Grafikkarten verbinden werden und so schnell werden die CPU-GPU-Fusions den Markt nicht erobern.

Dennis Ziesecke Freier Redakteur - 29505 - 16. August 2010 - 17:33 #

Eventuell sind sie auch davon überzeugt "Radeon" ausreichend etabliert zu haben.

Makariel 19 Megatalent - P - 13456 - 16. August 2010 - 17:41 #

Heißt das dann das ich mir eine neue CPU kaufen muss, jedes mal wenn ich meine GPU aufrüsten will? Im Gegenzug: wenn man eine zusätzliche graka reinpacken kann/soll, wozu soll ich für den Ballast an der CPU extra zahlen?

Für Laptops versteh ich den Trend ja, aber muss man GPU und CPU für Desktoprechner unbedingt kombinieren? Haben ja beide schon genug Probleme mit der Abwärme fertigzuwerden. Oder versteh ich da was grundlegend nicht? óÒa

Dennis Ziesecke Freier Redakteur - 29505 - 16. August 2010 - 17:50 #

Wie schon geschrieben - Fusion ist eher für den Officebereich gedacht, da wo Grafikkarten eher selten getauscht, geschweige denn benötigt, werden. Und da ergibt das durchaus Sinn..

Brutus (unregistriert) 17. August 2010 - 9:16 #

Ich kann mir den Fusion unteranderem auch in einem Spielerechner vorstellen. Wenn ich bedenke, dass ich bei einem neuen GPU Kauf ohnehin meine CPU wechseln müsste, aufgrund des limitierenden Faktors der alten CPU gegenüber der neuen GPU (momentan bei mir E6750 und 8800GT), wäre der Fusion oder ein ähnliches Produkt mal gar nicht so schlecht.

Zumal die beiden Komponenten von Haus aus auf einander abgestimt sind und ich mir keine Gedanken darüber machen müsste, welche CPU passt zur GPU. Nun gut, so schwer ist das wieder auch nicht, dennoch den einen oder anderen PC Muffel könnte diese Leichtigkeit wieder in das PC Lager führen. *träum* :)

Wegen der Abwärme würde ich mir jetzt auch nicht so große Sorgen machen. Da der CPU ohnehin ein größerer Kühler mit Lüfter (Durchmesser) zur Verfügung steht. Der GPU Kühler ist doch ohnehin meist sehr kompakt.

Dennis Ziesecke Freier Redakteur - 29505 - 17. August 2010 - 9:28 #

Du hast schon länger keine neuen Grafikkarten mehr angeschaut oder? ;) Zumindest die Modelle mit etwas mehr Leistung haben schon lange Doppelstock-Kühler mit sehr sehr viel Metall und schnell drehenden Lüftern. Ist auch kein Wunder, verbraucht eine moderne GPU doch unter Last oft mehr als das doppelte eines hochgezüchteten 6-Kern-Prozessors. Dazu kommt, dass Grafikchips mittlerweile auch deutlich komplexer geworden sind als CPUs - 2 Milliarden Transistoren sind heute keine Seltenheit mehr, ein Core i7 bringt die Hälfte aufs Die.

Mittelklassekarten sind natürlich etwas anderes. Aber bei denen muss man sich auch nicht sonderlich viele Gedanken um die passende CPU machen. Dazu kommt, dass heutzutage die GPU immer noch schneller veraltet als die CPU - wer also nach einem Jahr einen neuen Grafikbeschleuniger will muss oft nicht gleich die CPU mit tauschen. Für Gamer ist Fusion eindeutig nicht der richtige Weg, da werden dedizierte Grafiklösungen weiterhin maßgebend sein. Und leichter wird für den Zocker auch nichts beim Aufrüsten, im Gegenteil.

Anonymous (unregistriert) 17. August 2010 - 10:03 #

Mir ist durchaus bewusst, das heutige Grafikkarten einen größeren Kühler als meinen besitzen. :D

Nur durch den frei gewurdenen Slot der GPU, könnte der Kühler der CPU, später dann Fusion auch größer werden. Und der CPU Kühler ist schon bei mir nicht gerade klein (ok, du würst es sicherlich wieder anders sehen - SCYTHE Mine). Daher nehme ich an, ein etwas größere SCYTHE Mine Kühler sollte für den Fusion ausreichend sein. Wenn zudem das Gehäuse noch gut durchlüftet ist.

Ich werde meine 8800GT nicht gegen eine HD6850 oder GTX560 tauschen können, bei einem E6750. Daher müsste ich ohnehin immer (mein Beispiel, nicht die eines Enthusiastens) die CPU + GPU tauschen. Da bei mir die GPU etwas länger halten muss, als ein Jahr. Daher finde ich den Gedanken, einer spieletauglichen Fusion Einheit nicht so schlecht.

Dennis Ziesecke Freier Redakteur - 29505 - 17. August 2010 - 10:10 #

Naja, selbst im besten Falle wäre die GPU der ersten Fusion-CPUs langsamer als deine 8800GT. Daher würde dir das also nicht viel bringen.

Und bei den CPU-Kühlern gibt es zumindest bei heutigen Bauformen noch Einschränkungen was das Gewicht angeht - zu schwere Kühler haben oft gewisse Schwerkraftprobleme ;) .

Aber dem Trend im All-In-One-Computer wird Fusion sicher zugute kommen.

Brutus (unregistriert) 17. August 2010 - 10:24 #

Oh, bin auch nicht davon ausgegangen, dass mein nächstes System auf einen Fusion basiert. Aber vorstellen kann ich es mir schon, dass es selbst in einen Spielerechner zukünftig einzug erhalten kann. Da ihr beide das gleich ausgeschlossen habt.

Bei der Kühlerbesfestigung wird sicherlich auch fortschritte gemacht. Spricht ja nichts dagegen, sie wie die GPU zusätzlich am Gehäuserahmen zu befestigen. Oder die Anordnung des Innenlebens eines Computers wird komplett umgekrempelt. So das es wieder passt.

Aber ausschließen will ich den Fusion in einem Spielerechner nun auch nicht. (zukünfig :D , Fusion(x) )

Dennis Ziesecke Freier Redakteur - 29505 - 17. August 2010 - 10:35 #

Ich sehe ja fast den anderen Weg - GPU als Hauptprozessor, Betriebssystem ohne x86-Altlasten. Aber der klassische Selbstbau-Computer wird in einigen Jahren wohl leider eh ausgestorben sein. :(

Sgt. Nukem 15 Kenner - 3472 - 16. August 2010 - 17:43 #

Nach der Übernahme dachte ich eigentlich, daß AMD nach einem halben Jahr Prozessoren mit integrierter Grafikeinheit (für Office- / Nicht-Spiele-PCs) und uns auch sonstwie überrascht (diese CrossFire-kompatibel mit "dicken" Boards zu machen o.ä.). Aber es kam überhaupt nichts in der Richtung. Ironischerweise brachte Konkurrent Intel (_ohne_ eine aufgekaufte Grafikchip-Schmiede) dann die ersten CPU+GPU-Prozzis für Consumer (i3/i5-Reihe)... ^^
Der dicke träge blaue (Intel) ist wieder flott und ideenreich (Atom, TurboBoost), und AMD rennt z.Z. hinterher, mal schauen ob die nochmal einen Hammer á la "Athlon" auspacken können... :)

Dennis Ziesecke Freier Redakteur - 29505 - 16. August 2010 - 17:52 #

Naja, Intel hatte ja auch schon lange vor AMD eigene Grafikhardware. Nur waren Intels Grafiklösungen halt noch nie wirklich gut. Allerdings sollte man bedenken, dass der Jahresumsatz bei AMD gut und gerne mal ein schwächeres Quartal bei Intel ergibt ;) .

Und Fusion ist dann doch etwas anderes als Intels Notlösung unter einen CPU-Heatspreader noch eine uralte GPU zu pflanzen. Fusion integriert die Grafikeinheit direkt im CPU-Kern, was deutlich effizienter arbeiten kann und sogar die Kosten senken wird.

Anonymous (unregistriert) 16. August 2010 - 17:44 #

Das klingt jetzt eher unwarscheinlich. Niemand schmeisst eine etablierte, eingeführte Marke weg. Drum gibts Persil und Weisser Riese, obwohl beide von Henkel sind.

Tristan 11 Forenversteher - 824 - 16. August 2010 - 17:56 #

Die These, AMD wolle 4 Jahre nach der Übernahme schon den seit 25 Jahren(?) etablierten Markennamen wegwerfen, hört sich in meinen Ohren als psychologisch "mutig" und ökonomisch unsinnig an.

Die Kunden werden kaum schon in breiter Masse AMD für ATI ansehen, wenn es um Kompetenz in Grafikkarten geht.

neone 15 Kenner - P - 3157 - 16. August 2010 - 23:45 #

Das denke ich auch. Psychologie spielt eine wichtige Rolle. Die meisten Intel-Enthusiasten werden keine AMD-Karten mehr in ihre Rechner verbauen wollen.

Dennis Ziesecke Freier Redakteur - 29505 - 17. August 2010 - 6:33 #

Zwickmühle - Kaum eine Firme hat so viele Fanboys wie NVidia (Apple mal ausgenommen ;)), *die* allerdings kaufen nix von ATI. Wegen den vor einigen Jahren mal eher schwachen Treibern. Oder wegen Linux, dass von denen meist keiner einsetzt ;) .

Disclaimer: Dod kauft Produkte mit guter Leistung bei gutem Preis. Von mir aus kann da auch S3 drauf stehen, wenns denn ausnahmsweise mal was gutes von S3 wäre ;) .

Crizzo 18 Doppel-Voter - P - 11026 - 16. August 2010 - 18:16 #

Die Leute von computerbase.de nehmen diese Quelle schon länger nicht mehr ernst, weil es bisher immer eine "Ente" war. Das nur so am Rande.

Anonymous (unregistriert) 16. August 2010 - 23:32 #

Computerbase ist ja auch AMD/ATi-Hater No.1 und desweiteren hat der Laden schon mehr auf ATi-Forum.de verlinkt, als umgekehrt. Das mal nur so am Rande ;P.

MfG

Brutus (unregistriert) 17. August 2010 - 9:26 #

Tolle Aussage, wenn keine Beweise hierfür vorgelegt werden, dass Computerbase antisyimpathisch zu ATI/AMD steht.

Immerhin wurde die HD5000 Reihe gegenüber den Fermi durchaus positiv dargestellt.

"GeForce GTX 480 oder Radeon HD 5870? Wer unbedingt die schnellste Single-GPU-Grafikkarte sein Eigen nennen möchte und dafür die mehr als einmal erwähnten Nachteile in Kauf nehmen kann, der greift zur GeForce GTX 480. Wem Stromverbrauch und Lautstärke hingegen nicht derart egal sind, der findet in der Radeon HD 5870 einen (außer in DirectX 11) nur geringfügig langsameren Partner mit deutlich niedrigeren Verbrauchs- und Emissionswerten. Die Radeon HD 5870 ist ohne Frage das „rundere“ Produkt. Zumal die Karte zwar nicht CUDA oder PhysX, dafür aber SGSSAA, Eyefinity mit einer Karte und geringere Anschaffungskosten auf sich vereint. "

computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/29/#abschnitt_fazit

ALF2097 10 Kommunikator - 434 - 17. August 2010 - 8:27 #

Radeon reicht doch völlig aus, diese Marke ist stark genug. Und AMD will sich ja selber einen Namen machen als Grafikkartenhersteller. Inein paar Jahren haben wir ATi vergessen wie 3dfx.

Dennis Ziesecke Freier Redakteur - 29505 - 17. August 2010 - 8:35 #

Ich streichle ganz oft meine Voodoo-Karten, also nicht so voreilig mit dem Vergessen ;) ..

Und irgendwann kann ich meinem Enkel dann eine ATI Rage128 zeigen und weise "das war vor AMD" murmeln..

Sgt. Nukem 15 Kenner - 3472 - 17. August 2010 - 11:20 #

3DFX vergessen?!? Wer hat die denn vergessen??! Mein erster 3D-Beschleuniger!! VGA-Loop-Kabel! Endlich hatte Lara runde Möpse!! :D
Der böse Grüne, der sie später aufkaufen sollte, war mir zu diesem Zeitpunkt gänzlich unbekannt ( obwohl sie tatsächlich zuerst einen 3D-Beschleuniger herausbrachten: http://de.wikipedia.org/wiki/Nvidia_NV1 ). Ganz im Gegenteil hatte ich zu Zeiten der Übernahme nur negatives zu berichten: Die Riva 128 konnte die Transparenzen in Quake III nicht richtig darstellen und zeigte tolle schwarze Quadrate anstatt Einschusslöcher... ^^
Einmal pro Jahr les' ich immer reumütig folgenden Artikel: http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review ... XD

Dennis Ziesecke Freier Redakteur - 29505 - 17. August 2010 - 12:10 #

Ein Ex-Kollege hatte zumindest vor knapp 8 Jahren eines der wenigen Exemplare und hat es mir einmal stolz vorgeführt. War nice, hatte immerhin knapp die Power einer Geforce 3 :) .

Klaus (unregistriert) 23. August 2010 - 12:21 #

Es gibt ein interessantes Update.

MfG

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit