AMD auch im 2. Quartal 2015 mit tiefroten Zahlen

Bild von Denis Michel
Denis Michel 107515 EXP - Freier Redakteur,R10,S1,C1,A8,J10
Platin-Gamer: Hat den sehr hohen GamersGlobal-Rang 25 erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtIdol der Massen: Hat mindestens 10.000 Kudos bekommenExtrem-Schreiber: Hat mindestens 1000 News geschriebenTop-News-Meister: Hat mindestens 500 Top-News geschriebenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreichtBronze-Jäger: Hat Stufe 5 der Jäger-Klasse erreichtBronze-Archivar: Hat Stufe 5 der Archivar-Klasse erreichtLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Reporter: Hat Stufe 6 der Reporter-Klasse erreichtDiskutierer: Hat 1000 EXP durch Comments erhalten

18. Juli 2015 - 18:57 — vor 1 Jahr zuletzt aktualisiert

Auch im zweiten Quartal 2015 sieht es für den Chip-Hersteller AMD nicht gut aus. Nachdem der Konzern im ersten Quartal mit 1,03 Milliarden Dollar den niedrigsten Umsatz seit zehn Jahren erzielte, fiel dieser in den letzten drei Monaten mit 942 Millionen noch schwächer aus. Im direkten Vergleich bedeutet das ein Minus von rund acht Prozent und einen Verlust von 181 Millionen Dollar.

Hauptverantwortlich dafür soll die Computing-and-Graphics-Sparte sein, die für die Herstellung von Prozessoren und Grafikchips zuständig ist. Hier wurde lediglich ein Umsatz von 379 Millionen erzielt, was im Vergleich zum Vorquartal einen Verlust von 147 Millionen Dollar bedeutet. Der Bereich Enterprise, Embedded and Semi-Custom, der unter anderem die Chipsätze für Xbox One und PS4 produziert, konnte hingegen mit 563 Millionen US-Dollar Umsatz sogar einen kleinen Gewinn von 27 Millionen Dollar erzielen – im Vorjahr waren es noch 97 Millionen.

Es bleibt abzuwarten, ob die neue Generation von CPUs und GPUs AMD helfen werden, wieder auf den rechten Weg zu kommen. Für das dritte Quartal 2015 erwartet der Hersteller eine Umsatzsteigerung von bis zu sechs Prozent.

nothanks 10 Kommunikator - 541 - 18. Juli 2015 - 19:52 #

Laut Newsmeldung von ein paar Tagen hier auf GG ist ja Microsoft an AMD interessiert...

CptnKewl 20 Gold-Gamer - - 22482 - 18. Juli 2015 - 20:06 #

MS könnte sowas sicherlich stemmen, ich glaube aber die Aktionäre wären arg verstimmt, wenn jetzt die nächsten Hardware-Milliarden raubgeballert werden.
Da hat MS einfach kein glückliches Händchen.

Thomas Barth 21 Motivator - 27449 - 18. Juli 2015 - 20:18 #

Mal zum Vergleich:
AMD Marktwert: 1,4 Milliarden Euro
Microsoft Gewinn pro Quartal: 5 Milliarden Dollar

Die können sich AMD problemlos aus der Portokasse leisten. Der Verlust wird abgeschrieben und muss nicht als Steuer bezahlt werden. Als Microsoft die Smartphone-Smartphone-Sparte abgeschrieben hat, ist der Aktienkurs gestiegen.

CptnKewl 20 Gold-Gamer - - 22482 - 18. Juli 2015 - 20:42 #

kommen die aber auch an die Kohle ran oder is da nen Großteil "Fest" im Ausland?
Zumal es der MS Strategie Mobile und Cloud-First so gar nicht passt.

gar_DE 16 Übertalent - P - 5790 - 18. Juli 2015 - 20:46 #

Warum nicht? Ein paar x86 und x64 kompatible Prozessoren und Grafik-Chips für das neue Surface oder das neue Handy im eigenen Haus gebaut ist doch okay.
Und die Konsole darf man auch nicht vergessen, da dürfte ja demnächst (3-4 Jahre) auch eine neue fällig sein.

CptnKewl 20 Gold-Gamer - - 22482 - 18. Juli 2015 - 21:10 #

Kartelbehörden? Software und Hardware aus dem selben Hause bei dem verbreitungsgrad? No Way

Cohen 16 Übertalent - 4452 - 18. Juli 2015 - 23:44 #

Bei Apple kommen bei den iOS-Geräten auch Software und Hardware aus dem gleichen Haus. Alleine von den iPads werden pro Quartal mehr Geräte verkauft als sämtliche Surface-Tablets, Xbox-Konsolen und WP-Smartphones zusammengerechnet... von den iPhones wollen wir da gar nicht erst anfangen.

Wenn Microsoft nicht zusätzlich noch sämtliche Notebooks, AIO-PCs und Desktop-PCs mit ihren CPUs/APUs bestückt, wäre das kartellrechtlich gar kein Problem.

CptnKewl 20 Gold-Gamer - - 22482 - 18. Juli 2015 - 23:50 #

der Prozessor in den iPhones kommt aber nicht von Apple

Cohen 16 Übertalent - 4452 - 19. Juli 2015 - 0:34 #

Woher kommen denn deiner Meinung nach der A4, A5, A5X, A6, A6X, A7, A8 und A8X? Alle von Apple designed (unter Einbeziehung von ARM- und PowerVR-Lizenzen) und von Samsung oder TSMC produziert.

AMD produziert die CPUs, APUs und GPUs auch nicht selbst sondern lässt sie bei TSMC oder Global Foundries fertigen, Microsoft würde dies bei einer Übernahme ebenso machen.

CptnKewl 20 Gold-Gamer - - 22482 - 19. Juli 2015 - 0:41 #

gut sie haben es designed. Produzieren aber nicht selbst und müssen Lizenzen zahlen. All das würde ja bei einer Übernahme von AMD durch MS wegfallen. Maximal zahlen Sie an Intel noch die x86er Lizenz.
Und damit hast du einfach zuviel aus einem Hause.

Thomas Barth 21 Motivator - 27449 - 18. Juli 2015 - 23:59 #

Ausserdem darf man nicht vergessen, dass das Kartellamt auch auf die Gesamtsituation guckt. Microsoft produziert selbst keine CPUs und Grafikkarten, das machen derzeit AMD und Intel im x86-Bereich bzw. Nvidia. Wenn AMD pleite geht, haben Intel und Nvidia ein Monopol in diesem Bereich, also würden sie es wahrscheinlich sogar noch begrüßen, wenn ein Big-Player bei AMD einsteigt und gleich zwei Monopole verhindert. Ausserdem rettet das nunmal auch Arbeitsplätze, was ein zu berücksichtigender Faktor ist.

matthias 13 Koop-Gamer - 1249 - 18. Juli 2015 - 20:52 #

wer mal eben 2 milliarden für eine kleines indie studio übrig hat sollte hier eigentlich keinerlei probleme haben.

Thomas Barth 21 Motivator - 27449 - 18. Juli 2015 - 20:53 #

Sie können an die Kohle ran, das ist reiner Gewinn nach Steuern. Die Xbox One passt theoretisch auch nicht in deren Mobile und Cloud-First Portfolio, aber sie versuchen Windows 10 in genügend Haushalte zu bringen, um langfristig mit der Cloud das Geld zu verdienen.

Wenn sie AMD besitzen, könnten sie die CPUs zum Selbstkostenpreis produzieren, verbauen und die Xbox One verschleudern, um eben Windows 10 auch bei Gamern zu verbreiten.

Alex Althoff 20 Gold-Gamer - 20734 - 18. Juli 2015 - 21:06 #

Zu den 1.4 Milliarden Dollar Marktwert, kommen noch die Schulden die AMD hat von ca. 2,4 Milliarden Dollar.

Macht dann ca. 5 Milliarden Dollar Kaufpreis und trotzdem hat man ein Produkt das hinter Intel und Nvidia in Sachen CPU und GPU steht am PC Markt. Dann wäre es ein reiner Kauf für die Konsolen Sparte. Ob sich das da lohnt...eher die Firma pleitegehen lassen und die Lizenzen rauskaufen.

CptnKewl 20 Gold-Gamer - - 22482 - 18. Juli 2015 - 21:11 #

die x86er Lizenzen gehören doch Intel oder?

Cat Toaster (unregistriert) 19. Juli 2015 - 1:09 #

Ja, Intel braucht aber irgendwie schon auch die AMD64-Lizenz, da würde man sich mit einem neuen Eigner schon einig und würde es kartellrechtlich auch müssen.

valorum 11 Forenversteher - 565 - 19. Juli 2015 - 0:52 #

Hinter Intel liegen sie seit Jahren tatsächlich zurück. Die Grafik-Sparte hat allerdings Produkte, die absolut State of the Art sind. Teilweise war bzw. ist man der Konkurrenz mit Technologien wie Mantle und HBM sogar voraus.
Deswegen wäre gerade dieser Bereich ein sinnvolles Ziel für eine Übernahme. Die Verbindlichkeiten sind dann kein so großes Hindernis, es würde ja nur eine Abteilung ausgegliedert. Zumal man dazu auch sagen muss, dass sich die Fremdkapitalquote nicht in kritischen Regionen befindet.

Vampiro 21 Motivator - P - 30536 - 18. Juli 2015 - 22:15 #

In meinem PC werkelt eine 5770. Wegen meiner 860M im Laptop reicht die auch noch. Angesichts der schwachen Zahlen wird, wenn es mal nötig wird, wohl keine AMD Graka mehr in meinen Desktop, leider. Sinkendes Schiff und so. Hoffentlich irre ich mich.

Jonas -ZG- 17 Shapeshifter - - 6906 - 18. Juli 2015 - 23:38 #

AMD hat echt mal tolle Sachen auf dem Markt gebracht. Seitdem bin ich eigentlich kleiner Fanboi^^ auch die aktuelle Hardware ist AMD Style... und ich denke ich werd sie weiter unterstützen^^

Noodles 21 Motivator - P - 30141 - 18. Juli 2015 - 23:42 #

Bei den Grafikkarten geht für mich nix über Nvidia, aber AMD hatte in der Vergangenheit einige tolle Prozessoren, deswegen hatte ich die letzten Jahre auch immer einen AMD in meinem Rechner, aktuell steckt noch ein Phenom II drin. Den will ich bald mal austauschen, deswegen fände ich es schön, wenn mal wieder was Gutes von AMD käme, sonst muss ich wohl doch zu Intel wechseln.

Jonas -ZG- 17 Shapeshifter - - 6906 - 19. Juli 2015 - 1:07 #

Hatte früher ne Radeon 9800 Pro drinne, die lief und lief und lief. Gut war damals noch ATI und gehörte nicht zu AMD.
Derzeit AMD FX-8300 drinne und dazu R270, bin zufrieden und läuft.

Mal schauen was die Zukunft bringt nur Wasserkühlung brauch ich nicht^^

Noodles 21 Motivator - P - 30141 - 19. Juli 2015 - 1:09 #

Ich hatte ne 9600 Pro und die lief relativ schnell nicht mehr. Umgetauscht gegen eine Neue, die ist auch irgendwann abgeraucht, wenn auch nicht ganz so schnell. Seitdem nur noch Nvidia, da ist mir noch nix passiert. Ist bei anderen vielleicht anders rum, aber positive Erfahrungen wirken sich halt aus. ;) Und bei den Prozessoren von AMD hatte ich bisher nur positive Erfahrungen. Aber aktuell haben die ja echt nix, wo sich das Aufrüsten lohnen würde.

Jonas -ZG- 17 Shapeshifter - - 6906 - 19. Juli 2015 - 1:32 #

Hm jo also ich hatte mit der 9800 Pro nie Probleme. Mein Vorgänger PC war eine Nvidia Karte und AMD Prozessor, auch das lief ohne Störungen.
Im Allgemeinen hatte ich mit Grafikarten nie irgendwelche Probleme... halt bei meinem Laptop ist 2008 die Graka abgeraucht, war glaub AMD bzw ja ATI ja zudem Zeitpunkt noch.

COFzDeep 19 Megatalent - P - 14529 - 18. Juli 2015 - 23:51 #

Ich bin auch irgendwie ein Fanboy, ich bin halt immer für die armen kleinen die sich nicht wehren können ^^ Hatte früher auch immer AMD CPUs, nur mein neuestes Upgrade wurde dann aus Mangel an vernünftigen Alternativen ein Intel. GPUs dagegen hatte ich immer von NVidia, hat sich einfach so ergeben (bzw. die eine ATi die ich mal hatte - gebraucht gekauft - war von Anfang an kaputt). Aber ich werde zusammen mit der VR-Brille aufrüsten, Ende 2015/Anfang 2016, und dann wird es definitiv eine AMD-Karte. Hab nämlich keine Lust auf NVidia als einzigen Hersteller, zumal die sich in letzter Zeit nicht gerade mit Ruhm bekleckert haben (GTX 970 mit 3,5 GB RAM -.-). Und die LiquidVR-Technik von AMD wird hoffentlich was bringen :) Muss mich nur noch entscheiden zwischen 390X und Fury... hmmm ^^ Wobei es dann zur Fury X auch nur noch ein kleiner Schritt ist. Ich hab nur irgendwie Angst vor Wasser im PC ((°□°;))

Jadiger 16 Übertalent - 4879 - 19. Juli 2015 - 0:16 #

Ende 2015 wenn du da Aufrüsten willst wirst du dir keine AMD Karte kaufen das Prognose ich dir jetzt einfach. Warum weil Nvidia im Herbst einen Refresh bringt der 900er Karten woher ich das weis weil sie das seit Jahren so machen.

COFzDeep 19 Megatalent - P - 14529 - 19. Juli 2015 - 0:26 #

... und? Im schlimmsten Fall wird AMD die Preise anpassen. Dann krieg ich meine AMD-Karte günstiger. Ich weiß dass die NVidia-Karten weniger Strom verbrauchen bei gleicher Leistung, aber ich will einfach eine AMD-Karte haben um die zu unterstützen, und das bisschen mehr Strom ist mir relativ egal...

Jonas -ZG- 17 Shapeshifter - - 6906 - 19. Juli 2015 - 1:07 #

Die paar Euro die man da an Strom spart^^, aber ja AMD muss echt mal ein Zacken zulegen und wenn es unter Microsoft ist, ist mir egal. Nur nVidia wäre für Gamer tödlich...

floppi 22 AAA-Gamer - - 32635 - 19. Juli 2015 - 1:53 #

100 Watt mehr sind bei 3 Stunden an 365 Tagen und 0,25 Euro pro kWh immerhin 27 Euro pro Jahr. Und es sind ja nicht nur die Stromkosten, mehr Verbrauch = mehr Hitze und benötigt eine bessere Kühlung, die dann in der Regel bei Luftkühlung auch noch lauter ist. Und heizt zusätzlich noch die Wohnung auf, bei Dachgeschosswohnungen im Sommer kann das einiges ausmachen, ich spreche aus Erfahrung. ;)

Tassadar 17 Shapeshifter - 7747 - 19. Juli 2015 - 2:00 #

100 Watt Unterschied bei gleicher Leistung besteht da aber ja nun auch nicht.

floppi 22 AAA-Gamer - - 32635 - 19. Juli 2015 - 11:16 #

TDP 980 GTX: 165W
TDP Fury: 275W

Sogar 110 Watt in der Klasse. Bei Fury X (275) und 980 Ti (250W) ist der Unterschied jedoch geringer.

Jonas -ZG- 17 Shapeshifter - - 6906 - 19. Juli 2015 - 11:35 #

Ist die Fury nicht besser mit der Titan vergleichbar? Kenne mich im Highendmarkt derzeit nicht so aus.
Vergleiche ich aber die aktuellen Serien der beiden, sind die Watt Unterschiede sehr marginal.

Cat Toaster (unregistriert) 19. Juli 2015 - 12:37 #

Prinzipiell liegt sie irgendwo dazwischen. Der 980Ti/TitanX-Angreifer ist die Fury X mit dem Wasserkühler, die luftgekühlte Fury liegt 9-11% hinter der 980 Ti und wiederum 9% vor einer werksübertakteten 980. Je niedriger die Auflösung und Settings desto schwächer wird AMD im Vergleich. Der Gegenspieler der 980 ist die 390X, die bietet doppelt soviel Speicher und ist ein gutes Stück preiswerter.

Gilt es doch als gute nVidia-Tradition Karten mit zu wenig VRAM auszustatten ist dies aktuell AMD mit der Fury leider ebenfalls gelungen, Problem ist dass der brandneue HBM-Speicher der ersten Generation einfach noch nicht mehr hergibt als 4GB, hier haben 980 Ti mit 6GB und Titan X mit 12GB die Nase teils deutlich vorn, wobei letztere in Sachen Preis-/Leistung eher eine Absurdität und wenig praktischen Nutzen bietet.

Die Leistungsaufnahme unter Last ist bei AMD schon ungünstiger, umso schneller sind die nVidia-Pendants wenn man deren selbstauferlegtes Power-Limit manuell weitet. Umgekehrt schraubt Sapphire bei Fury einen 30cm-Kühler auf eine 20cm Karte. Damit ist sie zwar die leiseste luftgekühlte Highend-Karte überhaupt, passt aber eben nicht mehr in viele Gehäuse die eine 27cm-980Ti/Titan aufnehmen können. Die noch balüsigere Fury X mit ihrem 12cm Wasserkühler und der zunächst fiependen Wasserpumpe passt auch nicht in jedes Gehäuse eines potenziell Aufrüstwilligen. Da die "kleineren" 390/390X nun alle mit 8GB VRAM daher kommen schmeckt ebenfalls nicht jedem Fury-Interessenten der mehr bezahlen und sich mit 4GB HBM begnügen muss und bei nVidia fürs gleiche Geld zumindest 6GB bekommt. Platzbedarf, Speicherausstattung und Preise sind aktuell für die Fury größere reale Probleme bei der Vermarktung als die Mär vom schlechten AMD-Treiber oder die Tatsache das die Leute TDP-Werte nicht von realer Leistungsaufnahme unterscheiden können.

So rein "Stock" ist es lächerlich so zu tun als wären einstellige Prozentwerte "Welten" die zwischen den beiden lägen.

Jonas -ZG- 17 Shapeshifter - - 6906 - 19. Juli 2015 - 19:04 #

Danke Cat für den ausführlichen Kommentar, Hut ab!

valorum 11 Forenversteher - 565 - 19. Juli 2015 - 23:06 #

Wobei man dazu sagen muss, dass die Furys architekturbedingt in den höheren und damit speicherintensiveren Auflösungen sowie Downsampling ihre eigentliche Stärke ausspielen. Und das trotz nur 4 GiB.
Zumindest ist AMD mit HBM schon ein Coup gelungen und sie sind in dem Punkt vor der Konkurrenz, auch was entsprechende Optimierungen in Hard- und Software für die Zukunft betrifft. Die Erfahrungen muss nVidia erst noch machen.

COFzDeep 19 Megatalent - P - 14529 - 19. Juli 2015 - 9:13 #

Also die Fury von Sapphire ist aktuell die leiseste GraKa, sogar leiser als die Palit GTX 980 Super Jetstream. Und luftgekühlt. Ja, verbraucht mehr Strom, ist dafür aber auch etwas schneller als die 980. Und preislich gleichauf. Also alles gut :)

floppi 22 AAA-Gamer - - 32635 - 19. Juli 2015 - 11:23 #

Aber verbraucht mehr Strom, 110 Watt mehr. Somit ist die Karte für ein Jahr Benutzung nicht gleichteuer sondern 27 Euro teurer. Soll sie drei Jahre im Rechner bleiben sogar 81 Euro teurer. ;) (Bemessen an 3h Betrieb täglich und 25Cent pro kWh)

COFzDeep 19 Megatalent - P - 14529 - 19. Juli 2015 - 12:01 #

Ich bezweifle aber dass ich 3h am Tag Dauerlast auf der Karte schaffe. Und - wenn es AMD nicht mehr gibt, dann wird NVidia teurer. In 3 Jahren sicherlich auch um 81 Euro ;) Und man kann bei der Sapphire die Lüfter noch nachregeln, dann fällt sie von 397 Watt auf bis zu 371 Watt.
Getestet unter Ryse - Son of Rome @ 4k, die Wattangaben sind für das Gesamtsystem:
GTX 980 OC - 100 % Leistung - 318 Watt
Fury - 125 % Leistung - 389 Watt (=122%)
Fury Tri-X OC - 129 % Leistung - 397 Watt (=125%)
Fury X - 139 % Leistung - 395 Watt (=124%).

Alles von Computerbase. Ja, natürlich ist Ryse ein Spiel das ziemlich gut mit der Fury arbeitet, gibt auch schlechter optimierte Spiele. Aber trotzdem - die Fury (X) bringt prozentual immer mehr Frames, als sie prozentual an Strom mehr verbraucht. Da kann man doch wirklich nicht meckern, oder?

Cat Toaster (unregistriert) 19. Juli 2015 - 12:05 #

Angesichts der Tatsache das die Fury gerade mal 9%-11% hinter der "250 Watt 980 Ti" liegt finde ich die Berechnungen allerdings auch einigermaßen hanebüchen. Zudem reale Praxiswerte etwas anderes sagen: http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/8/

79 Watt mehr als eine 980 Custom, 3 Watt weniger als eine 980 Ti Custom...ui. Ist ja nicht so als würde irgendjemand den ganzen Tag Furmark spielen.

Realszenario für MICH mit vier Displays im Desktop-Betrieb 12-14h am Tag:

Fury Tri-X/Fury X -> 84/87 Watt IDLE
980/Ti/Titan/780 Ti -> 108/136/140/145 Watt IDLE (super effizient beim Nichtstun!)

Und da weiß zumindest ich, wohin sich die meisten Diskutanten ihrer "Lastvergleiche" hinschieben dürfen mit ihren "jeden Tag drei Stunden Volllast spielen" wenn ich beim Fenster rumschieben pro Stunde 25-50 Watt mehr verbrate als mit jeder Fury-AMD-Karte.

Derzeit habe ich trotzdem eine 980 Ti (modifiziert auf weit jenseits von 300 Watt damit die Karte das bringt was man für ihren Preis eigentlich erwarten sollte), weil mir die Leistungsaufnahme in etwas so dermaßen egal wie der Kraftstoffverbrauch eines 911er Porsche würde ich mir einen kaufen wollen (und können).

Das ist eine Mumpitz-Diskussion die nicht mit Pauschalaussagen zu führen ist.

COFzDeep 19 Megatalent - P - 14529 - 19. Juli 2015 - 12:12 #

Danke für die Schützenhilfe ;) Und irgendwie wollte ich auch noch einen Auto-Benzinverbrauch-Vergleich mit einbringen, hab's aber argumentativ nicht geschafft. Stimme Dir aber zu - wenn ich mein Wunschauto kaufe ist mir der Verbrauch nicht ganz so wichtig, weil es um den Spaß geht. Und ich will mir halt die Freude an AMD noch eine Weile bewahren - auch in der Hoffnung, irgendwann mal wieder eine CPU von denen kaufen zu können. Wobei meine beiden HTPCs sogar AMD benutzen :)

Cat Toaster (unregistriert) 19. Juli 2015 - 12:53 #

Technologischer Wettbewerb ist immer gut. FreeSync, Mantle, DX12, HBM, 64-Bit-Erweiterung in jedem Intel-Prozessor...so wenig ist das nun auch nicht für ein Unternehmen das seit 2007 sieben Milliarden miese erwirtschaftet und praktisch für gar nichts mehr Ressourcen hat im Gegensatz zu gesunden Unternehmen wie Intel und nVidia die zum Teil mit dubiosen Praktiken ihre Position verteidigen.

floppi 22 AAA-Gamer - - 32635 - 19. Juli 2015 - 17:03 #

Ich glaube ihr missversteht mich gründlich. Ich will niemanden die AMD-Karten schlecht reden. Ich will auch, dass diese Karten gekauft werden und AMD überlebt. Der Wettbewerb ist gut für uns Kunden. Ich wollte lediglich eine Gegenansicht zu der Aussage, dass der höhere Stromverbrauch lächerlich ist, bereitstellen. Denn Nvidia ist wesentlich leistungseffizienter als AMD, das lässt sich nicht wegdiskutieren. Ob nun 20W, 50W oder 100W. Ob das jemanden nun stört oder nicht soll jeder für sich entscheiden.

Und wenn du 12-14h am PC sitzt und keine Grafikkarten-Leistung benötigst solltest du vielleicht eine andere Variante als übertaktete 980 Ti wählen, würde dich am Ende vielleicht billiger kommen, bei gleichem Ergebnis. Dein Szenario dürfte jedenfalls nicht der Standard für Gamer-PCs sein und damit genauso Mumpitz wie meine überschlägige Rechnung anhand der TDP.

Bezüglich des Autovergleichs, naja, nicht alles was hinkt ist ein Vergleich. Es gibt nämlich beispielsweise kein Auto, das ziemlich identisch mit dem 911er ist aber signifikant weniger Sprit benötigt

Und jetzt sollten wir die Gemüter beruhigen, ich will niemandem etwas böses. :-)

COFzDeep 19 Megatalent - P - 14529 - 19. Juli 2015 - 17:25 #

Ich wollte Dir auch nichts Böses, keine Angst :)

Aber ich habe zum Beispiel nur einen PC, der muss alles können. Sowohl Gamer-PC sein als auch (die deutlich meiste Zeit) dumm im Internet surfen und Videos angucken. Von daher ist der Idle-Verbrauch auch schon wichtig, und trotzdem braucht man dann für die Spielesessions durchaus was potentes.

Dass der Mehrverbrauch von AMD lächerlich ist, hab ich nicht gesagt - a) es kommt halt auf das persönliche Nutzungsverhalten an und b) selbst wenn ich persönlich mit der AMD-Karte mehr verbrauche ist es mir persönlich das wert. Wie Du sagst, das muss jeder für sich selbst entscheiden :)

Und der Vergleich mit Autos hinkt irgendwie, ja, aber... ich mag Autos :P und vom Grundtenor ist es halt - ich will das Auto/die Karte (bzw. noch eher dass die Kartenfirma überlebt), und akzeptiere deshalb gerne einen möglicherweise etwas höheren Durchschnittsverbrauch.

floppi 22 AAA-Gamer - - 32635 - 19. Juli 2015 - 18:29 #

Ne, das war Jonesy, jedenfalls sinngemäß. ;-)

Jonas -ZG- 17 Shapeshifter - - 6906 - 19. Juli 2015 - 19:03 #

Jup, ich war es und der Meinung bin ich nach wie vor. Wer 200-300 Euro für eine Graka hinblättert dem ist es auch egal ob er nun 20-30 € mehr Strom bezahlt.
Klar kann man auch auf Leistung und Verbrauch schauen und sich das Geld sparen, aber solange es nicht hunderte Euro Unterschied sind sehe ich das als vernachlässigbar an.

Cat Toaster (unregistriert) 19. Juli 2015 - 17:33 #

Das die eine Argumentation so unsinnig sein kann als "Pauschale" wie die andere wollte ich ja zum Ausdruck bringen.

Man muss all diese Aspekte für sich selbst entscheiden, dafür müsste man aber eben wissen das es sie überhaupt gibt und da ist für mich der "Idle-Verbrauch" der angeblich so effizienten nVidia-Karten eben die weitaus größere Katastrophe im Vergleich dazu dass die elektrische Leistung dann doch bitte erst verbraten werden möge wenn es was zu tun gibt.

Schaltet man zwei GPUs zusammen schaltet sie die zweite Karte bei AMD seit der 7000er-Serie komplett ab inkl. Kühlung im Desktop-Betrieb. Das kann nVidia bis heute nicht. Bei rund 80 Watt-Idle einer Karte ist das halt auch schon was.

Dann kommt halt immer gern "Das nutzt ja eh keiner" als "Argument". Dafür geben sich die bei AMD mit solchen Funktionen aber durchaus viel Mühe.

nVidia hat die effizientere Architektur, ja. Solang man nicht mehr als zwei Monitore und/oder zwei GPUs verwendet, dann wendet sich das Blatt teils drastisch. Ob die Karten die man vergleichen kann und sollte 40 Watt unter Vollast auseinander liegen oder 110 Watt ist halt schon ein Unterschied in der Dramaturgie. Natürlich soll das jeder selbst entscheiden, nur man muss die Vergleiche fair wählen und in Bezug zum Nutzungsverhalten setzen. Und da sind wir doch ehrlich: Wer kann denn das? Die Balkenanschauer können es halt häufig nicht, das ist wie mit "ich lese nur die Wertung und das Fazit" bei Spiele-Reviews. :)

floppi 22 AAA-Gamer - - 32635 - 19. Juli 2015 - 18:32 #

Stimmt alles. ;-)
Allerdings dürfte für einen Gamer-PC im groben Durchschnitt das Szenario 3h Last pro Tag deutlich realistischer sein als 10-12h Idle. Aber lassen wir das. :-)

Cat Toaster (unregistriert) 20. Juli 2015 - 6:41 #

Das stimmt, nur der faire Vergleich ist eben drei Watt weniger Custom-Fury vs Custom-980 Ti statt 114 Watt zur Referenz 980. Gut, die Fury ist dann immer noch 11% langsamer und somit leicht energiehungriger, aber das sind ganz andere Dimensionen. Der Fury ist schon sehr viel effizienter als sein Hawaii-Vorgänger. Die Fury X genehmigt sich zwar fast soviel Leistungsaufname wie ihr Vorgänger 290X, ist dafür aber auch 40% schneller geworden.

Deine Rechnung passt bei 290X/390X vs 980 wie sie auch positioniert sind. 421 Watt vs. 283 Watt im Gesamtsystem. Bis die 390X dann über den Strompreis teurer wird als die 980 musst Du sie schon drei Jahre benutzen in denen die AMD trotzdem doppelt soviel Speicher hat während er der 980 eventuell schon ausgegangen ist.

Zudem spielen wir in der Regel ja doch alle mit aktiviertem VSync und nicht chronisch im 100% Powerlimit. Das ändert natürlich nichts an den Relationen aber an den absoluten "Euro-Werten" die das im Jahr auf der Stromrechnung ausmacht.

Und bevor ich mir darüber Gedanken mache kommt es mir noch darauf an wie ich die Abwärme aus dem Gehäuse bekomme und den Rechner unterm Dach ohne Gehörschutz nutzen kann.

Für die Vorgängergenerationen von AMD stimme ich Dir ja voll und ganz zu hinsichtlich der Energieeffizienz, doch die Fury geht das schon sehr ordentlich an. Die im August kommende Fury nano wird noch eines drauf setzen.

So schlecht steht die Fury nicht da, auch ohne ein Multi-Monitor/Multi-GPU-Szenario herbei zu konstruieren.

floppi 22 AAA-Gamer - - 32635 - 20. Juli 2015 - 8:05 #

Ja, auch das stimmt. ;) Nur sehe ich den direkten Gegner der Fury in der 980, nicht in der 980 Ti. Deren Gegenspieler ist die Fury X. Ansichtssache. :)

CBR 20 Gold-Gamer - P - 20262 - 21. Juli 2015 - 9:12 #

Aus meiner Sicht mag das bei Grafikkarten stimmen. Bei CPU fällt mir derzeit einfach keine vernünftige Alternative zu Intel ein. Da mein Q6600 langsam in die Rente soll, steht bei mir ein Hardwarerefresh an. Da tendiere ich derzeit noch zum Xeon.

Nokrahs 16 Übertalent - 5684 - 19. Juli 2015 - 1:09 #

AMD? Bei denen habe ich seit 2006 nichts mehr eingekauft. Seit dem Core 2 immer gut mit Intel gefahren. Davor auch schon. Sei es mein 486er oder die Pentium 1-3.

Mein letztes AMD Produkt an das ich mich erinnere war ein "Athlon XP" zu Zeiten als Intel den weniger interessanten Pentium IV auf dem Markt hatte. Das war es aber auch schon.

Grafikkarten seit der Riva TNT nur noch von NVidia. Anfangs noch mit "Voodoo" Unterstützung im zweiten Slot. Eine Sapphire Karte war noch nicht in meinem Besitz, dafür so einiges anderes als 2D Knecht von Herstellern die heute keine Relevanz mehr haben.

Kurz gesagt, wenn AMD sich aus dem PC Hardware Segment zurück zieht, werde ich das hier Zuhause wohl kaum merken. Okay, vielleicht zerfällt die APU in meiner PS4 zu Staub...ein verschmerzbarer Verlust.

Bin aber wirklich nicht fixiert auf Intel/NVidia. Wenn AMD aus irgendwelchen Gründen die bessere Leistung sowohl im CPU als auch GPU Bereich bietet und auch die Kompatibilität in Form von Treibern gewährleistet ist, dann kaufe ich auch wieder bei den Jungs ein.

Spricht ja nichts dagegen. Dafür bin ich ja König Kunde *hust*.

Jonas -ZG- 17 Shapeshifter - - 6906 - 19. Juli 2015 - 2:35 #

Na ja du wirst es spätestens an deinem Geldbeutel merken wenn AMD wegfällt und Nvidia das Monopol hat.
Dann können sie die Preise festlegen wie sie wollen wir Gamer müssen das klaglos schlucken, oder auf Konsole umsteigen. xD

Nokrahs 16 Übertalent - 5684 - 19. Juli 2015 - 3:48 #

Kann sein, muss nicht sein. Kein Grund Hardware die nicht meine Erwartungen erfüllt zu kaufen nur um ein Unternehmen zu unterstützen, welches mir persönlich auch nicht weiter hilft.

Alte Firmen gehen, neue kommen...der Lauf der Dinge.

Konsole ist etwas für nebenbei und vergleichsweise völlig überteuert. Das fängt bei der Hardware an (400 Euro für die schwarze Schachtel ist schon dreist) und hört bei den Spielen (60-70 Euro für normalo Edition?) auf.

Wie auch immer, will hier ja nicht streiten. Ging um AMD und wie schon gesagt, wenn die Firma es schafft, wieder mit Technik zu überzeugen, dann bin ich der letzte, der hier nicht wieder Kunde wird.

Mazrim_Taim 15 Kenner - 3107 - 19. Juli 2015 - 7:34 #

Alte Firmen gehen, neue kommen...der Lauf der Dinge.
=> leider nicht.
Wer erinnert sich noch IDT, Transmeta, Via oder Cyrix?
Heute gibt nur noch Intel & AMD für Desktop.
Bei Grafikkarten sieht es sogar noch schlechter aus.

Mazrim_Taim 15 Kenner - 3107 - 19. Juli 2015 - 7:38 #

nein.
Glaubst Du wirklich das Intel dann 250€, 500€ oder 1000€ für ein Celeron verlangen würde?
Intel lebt davon CPUs zu verkaufen; starke Preissteigerungen wird e s nicht geben.
Abgeshen davon was glaubst Du wer wird die CPU/GPU/APU in der nächsten XBox/PS/Nintendo bauen wenn AMD nicht mehr da ist ;) ?

Dennis Ziesecke Freier Redakteur - 29502 - 19. Juli 2015 - 7:39 #

Intel hat schon mal so viel Geld für CPUs genommen und es bekommen. Und das wird zumindest bei Menschen die Power brauchen auch wieder klappen. Der Rest kauft dann bei ARM. Und wen würde DAS stören? Genau, Microsoft. Die etwas dagegen unternehmen sollten, dass zu viele Leute durch eine überzogene Intel-Preispolitik zu ARM abwandern.

Mazrim_Taim 15 Kenner - 3107 - 19. Juli 2015 - 13:12 #

äh nein.
Intel hat in den letzen 20 Jahren noch nie so viel Geld für ein Low-Power Modell genommen.
Es gab die extrem CPUs die mal richtig ins Geld gingen (bzw. heute der i7-5960) aber das sind Aussnahmen (arbeiten und zocken kann man problemlos mit viel günstigeren CPUs).
Intel (bzw. teilweise auch AMD) haben so viele CPU Modelle bzw. Serien auf dem Markt das auch weiterhin für Geldbeutel was dabei sein wird.
Das Problem wird eher sein das der Entwicklungsrythmus deutlich langsammer wird.
.
@ Arm & Co.
mmm
bei Tablets & Smartphnones ist das ja schon der Fall nur ob man am Desktop/Laptop so leicht ein BS für Arm kriegt?
Oder wird das egal sein da eh die breite Masse auf nem Tablet arbeiten wird?

Cat Toaster (unregistriert) 19. Juli 2015 - 14:19 #

Es kommt drauf an WAS Du arbeitest. Beim rechenintensiven Aufgaben wo Zeit Geld ist gehen die 8-Kerner aufwärts schon massiv in selbiges (da gibt es praktisch ja nur Xeons) und außer der Skalierung der Kernzahl passiert im CPU-Segment seit einem halben Jahrzehnt nichts mehr außer luschiger Produktpflege. Durchaus mangels Wettbewerbs möchte ich sagen.

Intel nimmt für einen Achtkerner 1100,-€ und für einen 18-Kerner 4.400,-€, weil sie es können. Wie viel Geld man mit dem Lowend-Kram machen kann sieht man ja an AMD, auch wenn der 10x für alles reicht und der Konsument kauft eh das mit den längsten Balken. Da frag mal worauf die GG-Redaktion lieber ihre Videos encoden würde und niemand der mehr als Pixelmatsch nach Twitch streamen will nutzt freiwillig GPU-Encoding via QuickSync/APP/CUDA.

Für den 0815-Kram von Tante Erna ist es im Prinzip Latte ob Du einen i3 oder Athlon nimmst und ob das Zippen 15 oder 25s dauert was man bei letzterem mit einer SSD ohnehin deutlicher beschleunigen könnte. Da reicht eben alles was in den letzten fünf Jahren für 100,-€ den Markt gesehen hat oder es wird gleich auf dem Tablet gemacht für komplett 100,-€ und da ist oft kein Intel drin so sehr sie auch versuchen ihre Atoms subventioniert gegen ARM in Stellung zu bringen und AMD bringt da auch nichts auf den Boden und kann Subventionen schon gar nicht leisten.

Alex Althoff 20 Gold-Gamer - 20734 - 19. Juli 2015 - 8:34 #

Eben. Erst dann würde das Kartelamt was machen. Aber solange Intel und Nvidia max. 10% mehr für die CPU und GPU verlangen würden, sagen die nix wenn es AMD nicht mehr gibt. Die wollen auch verkaufen. Intel wird ja auch nicht bestraft, die 6 und 8 Kerner für 500 Euro + zu verkaufen.

valorum 11 Forenversteher - 565 - 19. Juli 2015 - 23:19 #

Gut, dass du weißt, wie "das" Kartellamt so arbeitet.

Abgesehen davon, die Preissetzung im Monopol hat einfach schon rein mathematisch ein anderes Optimum mit geringerer Menge und höherem Marktpreis. Das kommt dann auch sehr schnell beim Kunden an. Schon das vorhandene Duopol ist alles andere als effizient und nachteilig für den Kunden.
Die Innovation wird ebenfalls gebremst. Intel verschiebt in letzter Zeit eine Generation nach der anderen. Das ist aus dem Blickwinkel kein Zufall. F&E sind teuer und wenn kein Konkurrenzdruck besteht, drosselt man diese Kosten, bzw. erhöht sie nicht adäquat.

Mclane 18 Doppel-Voter - P - 11871 - 19. Juli 2015 - 1:13 #

Wirtschaft ist schon hier und da ein wenig seltsam. Die machen doch seit ich mich erinnern kann immer nur Miese.
Das kann ja kurzfristig mal passieren, aber wie man das auf Dauer durchzieht ohne Pleite zu gehen ist irgendwie faszinierend.

Dennis Ziesecke Freier Redakteur - 29502 - 19. Juli 2015 - 7:35 #

Solange man zwischendurch genug Umsatz macht, um Kredite umzulagern.. Funktioniert bei Deutschlands Staatsfinanzen ja auch.

Mazrim_Taim 15 Kenner - 3107 - 19. Juli 2015 - 7:30 #

Die akt. Generation an Grafikkarten finde ich auch nicht so pralle.
~ 8 Monate! nach NV hauen die eine "neue" Generation raus die zum großen Teil langsammer ist als die eigene Vorgängergeneration (alles bis inc. R9 380) und oder bis zu 100% mehr Strom verbraucht als NV aber nicht wirklich schneller ist (R9 390 bzw die 390X).
Bleibt noch die Fury. Das mit der Wasserkühlung finde ich ein gute Idee aber das die am anfang (?) zu laut war ist bei einem High-End eigendlich ein no-go. Leider ist die Fury X nicht mal die schnellste GPU auf dem Markt.
Mir würde eine R7 370X und eine R9 380X zum Glück fehlen; auch die (Fury?) Nano ist ja leider nicht auf dem Markt angekommen.

Dennis Ziesecke Freier Redakteur - 29502 - 19. Juli 2015 - 7:38 #

Die 300er-Karten SIND 200er nur mit neuem Namen, etwas mehr Takt und Speicher. Langsamer können die daher kaum sein (bis auf die 380/285 wo nur die 5 im Namen der einen Karten "falsch" ist). Mit der Fury sind sie Nvidia zumindest beim Speicher und der Baugröße stark überlegen. Die Fury X ist übrigens nicht "zu laut" sondern weist in der ersten Revision ein Geräusch durch die Pumpe auf. Das auffällt, weil die Karte ansonsten sehr leise ist.. Die Fury ohne X ist dann sogar oft deutlich leiser als Nvidias Karten. Aber DAS sagt ja wieder keiner der AMD-Kenner ;) .

Die Nano wird wohl selektierte Chips nutzen und kommt im August. War von Anfang an so geplant und ist AMD jetzt schwer anzulasten.

Mazrim_Taim 15 Kenner - 3107 - 19. Juli 2015 - 14:14 #

Habe mich etwas ungenau ausgedrückt.
Bei der akt. Generation sind das idR. keine Vollausbauten mehr;
AMD hat (teilweise) die Shadereinheiten reduziert.
Die R9 370 ist also langsammer als die R9 270X.

COFzDeep 19 Megatalent - P - 14529 - 19. Juli 2015 - 15:11 #

Aber die X war immer schneller. Die 280X ist auch schneller als die 380. Aber - die 380 ist schneller als die 280/285. Und die 390 ist schneller als die 290(X), und die 390X sowieso. Wenn man innerhalb derselben Gruppierung vergleicht, sind die neuen also schon schneller als die alten. Und wenn ich mir das grad richtig zusammengesucht habe, ist die 270 im Vergleich zur 270X (=100%) bei 89% Leistung, die R370 (in einem neuen Testparcours, 1,5 Jahre später) bei 90%. Also ist auch die 370 schneller als ihr direkter Vorgänger, die 270.

Also, alles gut :)

Fisch 14 Komm-Experte - 2662 - 19. Juli 2015 - 13:31 #

In der News ist leider von "Verlust" die Rede, wenn Umsatzrückgänge gemeint sind. Die Begriffe "Gewinn" und "Verlust" bezeichnen aber betriebswirtschaftlich andere Dinge, die man auseinander halten sollte - bei negativer Umsatzrendite kann man sich nämlich ganz wunderbar in die Insolvenz wachsen, solange man keine Dummen findet, die einem fleißig frisches Geld reichen, weil eines Tages, ja eines Tages wird die Firma Gewinn machen ...

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit