HW-News Folge 129: Pentium-Geburtstag, Google Chromecast
Teil der Exklusiv-Serie Hardware-News

PC Android
Bild von Dennis Ziesecke
Dennis Ziesecke 29505 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreicht

22. März 2014 - 8:52 — vor 2 Jahren zuletzt aktualisiert
Angesichts der zahlreichen Neuigkeiten von der GDC fühlt sich der Autor der HW-News ein wenig überflüssig – die spannenden News aus dem Hardwaresektor wurden schließlich (erfreulicherweise!) bereits von anderen Nutzern abgearbeitet. Und so finden sich in dieser Ausgabe des GamersGlobal Hardwareüberblicks weder Oculus Rift noch Sonys Morpheus und auch DirectX 12 glänzt entschuldigt mit Abwesenheit. Langweilig wird es trotzdem nicht, versprochen! Denn es gibt ja noch Intel, die in einer Pressemitteilung nicht weniger als den Desktop-PC neu erfinden wollen. Zu guter Letzt gibt es noch einen Kurztest des Google Chromecast, einem hochgelobten HDMI-Stick zum Streamen von Internetinhalten auf den Fernseher.
In der zweiten Jahreshälfte soll Haswell-E satte 16 Rechenkerne (acht davon physikalisch vorhanden) in den Desktop bringen
Achtkernprozessor mit Hyperthreading und Pentium-Geburtstagsedition
Den Desktop-PC neu erfinden – das wollten schon viele Hersteller. Nun aber nutzt Intel die markigen Worte um Werbung für kommende Produkte zu machen. Und tatsächlich tut sich beim Chipgiganten einiges, auch wenn bis zum Erscheinen vieler Produkte noch ein wenig Zeit verstreichen wird.

Besonders interessant für leistungshungrige PC-Nutzer dürfte die Ankündigung eines Haswell-E-Prozessors mit gleich acht vollwertigen Rechenkernen sein. Zusätzlich soll die als teure Extreme Edition geplante CPU (Preisklasse: voraussichtlich 999 US-Dollar) Hyperthreading beherrschen, um insgesamt 16 Kerne in der Systemsteuerung präsentieren zu können. Ein neues Mainboard wird für den Prozessors ebenfalls fällig, hier wird Intel den neuen X99-Chipsatz ins Spiel bringen. Zusätzlich steht für Performancejünger auch neuer RAM auf der Einkaufsliste, da bereits der neue DDR4-Speicherstandard unterstützt werden soll. Leistung satt – Gamer allerdings sollten dem Kaufreflex widerstehen. Die Relation zwischen Preis und Leistung stimmte bei Intels Extreme Editions noch nie so recht. Und nur um als erster „Hier, ich hab DDR4 und du nicht!“ rufen zu können, lohnt sich die Investition von voraussichtlich mehreren tausend Euro nicht wirklich..
DDR4-RAM dürfte trotz Intels Haswell-E-Vorstoß nicht vor 2015 Einzug in herkömmliche Gamer-Rechner finden
Am anderen Ende der Leistungsskala arbeiten Prozessoren mit dem Pentium-Label. Einst die gefeierten Topmodelle bei Intel, wurde die Marke Pentium schon vor Jahren zum Billigheimer deklassiert. Eine spezielle „Anniversary Edition“ soll nun 20 Jahre Pentium feiern und einige Funktionen der teureren i-Modelle ins Einstiegssegment bringen. So wird der Geburtstags-Pentium zwar nicht über den berühmten Divisionsfehler verfügen aber dafür einen offenen Multiplikator bieten. Zudem gibt es einen neuen „Ready Mode“ genannten Energiesparmodus.

Nicht ganz unerwartet präsentiert Intel auch neue Ausblicke auf den kommenden Haswell-Refresh. Dabei handelt es sich mitnichten um revolutionär neue Prozessoren sondern, der Name deutet es bereits an, um überarbeitete Haswell-CPUs. Neben kleineren Taktsteigerungen verspricht Intel bei diesen CPUs den Einsatz eines neuen Wärmetransfer-Materials zwischen Die und Heatspreader. Die Hitzköpfigkeit der Haswell-Prozessoren ist in Übertakterkreisen durchaus gefürchtet und sorgt immer wieder für mutwillig geköpfte CPUs (keine Sorge, bei dieser Prozedur wird nur der Heatspreader demontiert um den Prozessorkühler direkt auf dem empfindlichen CPU-Die platzieren zu können, was die Temperatur um einige Grad senken kann).

Erst mit Broadwell wird im kommenden Jahr eine neue Prozessorarchitektur von Intel auf den Markt gelangen. Interessant für Gelegenheitsgamer: Erstmals soll es auch Desktop-CPUs mit der schnellen „Iris Pro“ Grafikeinheit HD 5200 geben. Diese verfügt über einen sehr schnell angebundenen eigenen Speicher und erreicht jetzt schon die Performance günstiger Einstiegs-Grafikkarten. Während AMD bei seinen APUs auf sehr schnellen Arbeitsspeicher angewiesen ist, umgeht Intel dieses Problem mit dem integrierten Speicher der iGPU. Wer also mit seinem Intel-PC nur ab und an grafisch eher zurückhaltende Spiele spielen möchte, kann mit einem Iris-Pro-Broadwell Strom und wahrscheinlich auch Geld sparen.

Generell dreht es sich bei Intel oft um das Thema Energiesparen. Kein Wunder, verändern Tablets doch gerade massiv die PC-Landschaft – in Zukunft können Tablets mit Intel-CPU und Windows-Betriebssystem dank flexibler Tastaturdocks sowohl das Notebook als auch in gewissem Maße den Desktop ersetzen. Sollte irgendwann noch ein passender Standard zur externen Anbindung von Grafikkarten erscheinen, wären unhandliche Desktop-PCs fast komplett überflüssig. Das Video am Ende dieser News zeigt Intels Vision mobiler Heim-PCs.
Google Chromecast - Smart-TV-Verheißung oder Frickel-Kastrat?
Kurztest: Google Chromecast
Ist es ein USB-Stick? Ist es ein Feuerzeug? Nein, es ist Supe..eh.. Chromecast aus dem Hause Google. Tatsächlich schaut der 35 Euro teure Stick aus wie ein pummeliger USB-Speicherstift, wie bei den bereits seit einiger Zeit erhältlichen Android-Sticks befindet sich an der Position des USB-Anschlusses allerdings ein HDMI-Stecker.

Kinderleichte Einrichtung

Chromecast tritt an, um Internetinhalte auf den Fernseher zu bringen – ohne dabei mit der fummeligen Bedienung vieler Medienplayer, Blu-ray-Player oder Smart-TVs leben zu müssen. Das Konzept klingt pfiffig: Der Chromecast-Stick wird mit einem Tablet, Smartphone oder PC verbunden, indem er als Hotspot im heimischen WLAN fungiert. Auf den Endgeräten installierte Software sorgt nun dafür, dass Inhalte direkt via Chromecast auf dem Fernseher abgespielt werden.

Dabei gibt das Tablet oder das Telefon allerdings nur die Information über die abzuspielenden Daten an den Chromecast-Stick weiter. Dieser streamt die Inhalte dann selbst und ohne weitere Umwege auf den Fernseher. Vorteil: Das Tablet oder Smartphone kann beim Abspielen von Filmen für andere Dinge weitergenutzt werden. Eine handliche „Pause“-Taste fehlt allerdings, dient das als Fernbedienung genutzte Tablet also währenddessen als Spielkonsole, muss erst wieder die Chromecast-App aufgerufen werden, um einen Film zu pausieren oder zu spulen. Dabei gibt es zudem eine gewisse Verzögerung von mehreren Sekunden – je nach Qualität des WLAN-Signals am Standort des Sticks.

Einrichtung: Vorbildlich

Sehr einfach hingegen ist die Einrichtung von Chromecast. Stick in TV, USB-Kabel mit Chromecast und Fernseher oder Netzteil verbinden, App auf Smartphone oder Tablet laden und starten (oder auf dem PC ausführen) und das wars auch schon. Dem Stick wird ein eindeutiger Name zugeteilt und das WLAN-Passwort verraten, schon ist der Chromecast erreichbar und Einsatzbereit. Ein wenig unförmig sieht die Bastelei mit dem USB-Stromkabel allerdings aus, die Google-Werbung verschweigt diesen Punkt großzügig.

Um Inhalte vom Smartphone oder Tablet auf den Chromecast zu bringen, wird die Hilfe von Apps benötigt. Google selbst vermarktet Chromecast als Möglichkeit, Internetinhalte zu streamen. Dass dabei keine Rede von lokal gespeicherten Videos ist, sollte stutzig machen: Tatsächlich tut sich Chromecast in diesem Punkt noch sehr schwer.

Dienste wie Youtube, Watchever, Google Play und einige andere Internetservices lassen sich dank passender Apps schnell und problemlos auf dem Fernseher nutzen. Allerdings ist die Umstellung der Videoauflösung bei Youtube eher hakelig, bei 1080p ruckelt das Video zudem oft und unschön. Mehr als 720p scheint Chromecast nicht zu vertragen, auch lokale Videos in höherer Auflösung lassen sich nicht erfolgreich abspielen. Generell ist aber auch für 720p ein schnelles WLAN und eine am Chromecast-Standort sehr zuverlässige WLAN-Abdeckung erforderlich. Mit einem älteren 802.11g-WLAN ist an viel mehr als mühsames Foto- und Audiostreaming nicht zu denken.
Die Einrichtung ist einfach per Handy, Tablet oder PC erledigt. Anschließend folgen gemischte Gefühle
Formatschwierigkeiten – nichts für lokale Videos

Während sich Internetvideos per Youtube und co problemlos übertragen lassen, schaut es bei lokal gespeicherten Videos schon anders aus. Auf dem Handy oder Tablet gespeicherte Fotos werden noch problemlos abgespielt, bei eigenen Videos scheitert Chromecast allerdings sehr oft an der fehlenden Formatvielfalt.

Apps wie Allcast und BubbleUPnP bieten Zugriff auf Netzwerkspeicher im heimischen WLAN – da liegt es nahe, die dort gespeicherte Filmsammlung auf den Fernseher streamen zu wollen, während ein ausgemustertes Handy als Fernbedienung genutzt wird. Google sieht das allerdings etwas anders: In AVI-Containern gespeicherte DivX-Filme beispielsweise verschmäht Chromecast fast immer, bei einigen Filmen wird immerhin die Tonspur ohne Bild abgespielt. Bei einigen MKV-Filmen war es dann anders herum: Bild gut, Ton verschwunden. MOV-Dateien ließen sich gar nicht zur Zusammenarbeit überreden, MP4-Dateien hingegen in vielen Fällen. Sicherlich, wir haben nur Stichproben nehmen können, wenn von etwa 50 getesteten Files aber nur vier bis fünf problemlos abgespielt wurden, spricht das gegen Chromecast.

Ob hier in Zukunft entsprechende Apps Abhilfe schaffen ist unklar. Besitzer rechenstarker Netzwerkspeicher können die Videodateien auf dem NAS in ein Chromecast-genehmes Format umwandeln lassen. Diese Funktion bietet aber nicht jedes NAS und immer den PC zum Streaming laufen lassen kann auch nicht Sinn der Sache sein. Bislang existieren keine Apps, die dieses Manko des Chromecast beheben – obwohl die Hardware in den USA bereits seit einem halben Jahr verfügbar ist und sich dort extrem großer Beliebtheit erfreut.

Fazit

Chromecast ist nett wenn es darum geht, Internetvideos oder den Inhalt von (Chrome-)Webseiten auf den Fernseher zu streamen. Mehr sollte man von dem 35-Euro-Stick jedoch nicht erwarten. Vor allem als Abspieler lokaler Dateien versagt Chromecast. Fairerweise muss dazu erwähnt werden, dass Google eben diese Funktionen auch gar nicht bewirbt.

Dennoch bleibt der negative Beigeschmack, dass ein nur minimal teurerer Android-Stick zwar etwas weniger elegant zu bedienen und einzurichten ist, dann aber deutlich mehr Formate ohne zu Murren abspielt. Auch ein Raspberry Pi macht sich als Medienplayer für lokal gespeicherte Dateien deutlich besser als Googles Chromecast. Fans von Youtube und Watchever ohne Smart-TV und ohne Ambitionen, in Kürze einen entsprechend ausgestatteten Blu-ray-Player oder einfach nur eine Spielekonsole zu erwerben, können bedenkenlos zuschlagen und werden mit Chromecast glücklich. Der Hype um den kleinen Stick ist allerdings nur bedingt gerechtfertigt – viel mehr kann das sich erschreckend stark erwärmende Stück Hardware nämlich nicht. Das Abspielen lokal gespeicherter Videodateien erledigen andere Geräte besser. Und wer ganz mutig mit der Hoffnung lebt, via Chromecast Spiele vom Smartphone auf den Fernseher streamen zu können, wird aufgrund der extrem hohen Latenz eines besseren belehrt.

Video:

Marulez 15 Kenner - 2740 - 22. März 2014 - 9:09 #

Chromecast wäre bei mir für z.B. Googleplay Music interessant

Dennis Ziesecke Freier Redakteur - 29505 - 22. März 2014 - 9:23 #

Praktisch, die Google-eigenen Dinge funktionieren wirklich klasse. Man darf halt nur nicht mit der Erwartung herangehen, eine flexible Hardware zu haben, die mehr kann als die (sehr winzige) Packung verspricht.

Alex Althoff 20 Gold-Gamer - 20742 - 22. März 2014 - 11:02 #

20 Jahre Pentium...ist das schon wieder so lange her? Oo

Beim Haswell-E überleg ich noch. Das Topmodel für 999 Dollar - ne. Aber für 500 eine etwas langsamere getakte 8-Kern CPU..wäre drin. Oder der 6-Kerner kommt in den 300 Euro Bereich.

MrFawlty 17 Shapeshifter - P - 6329 - 22. März 2014 - 17:56 #

Und damals war der Deeicks4 auch noch schneller :-)
(Multimedia Leserbriefe 3/94)

Abgesehen von dem Preis schreckt mich beim Haswell-E auch die TDP von 140 W ab.

Als ich mir vor 5 Jahren meinen i5 Quadcore gekauft habe, gab es im Desktop-Segment
i3 2-Kerne+HT
i5 4-Kerne
i7 4 Kerne+HT
Damals habe ich erwartet, dass wir heute schon mehr Kerne hätten z.B.:
i3 4-Kerne
i5 6-Kerne
i7 8 Kerne
Leider hat sich da praktisch nix geändert. Stattdessen gibt es Smartphones mit 8-Kernen...

Dennis Ziesecke Freier Redakteur - 29505 - 22. März 2014 - 18:18 #

Tja, so ganz ohne Konkurrenz gibt es eben nur Stillstand..

Alex Althoff 20 Gold-Gamer - 20742 - 22. März 2014 - 20:09 #

Deswegen sollte Nvidia ins CPU x86 Geschäft einsteigen. Sorry, aber bei AMD seh ich keine Hoffnung. Nvidia hat Geld - AMD zu wenig. Die setzen nun ja nur auf APU und kein FX Nachfolger in den nächsten 2 Jahren. Man kann eben nur hoffen, das Star Citizen kein Ausnahmefall ist, sondern viele Hersteller PC Spiele bringen die nach mehr CPU Power schreien. Sonst macht Intel nur das nötigste um AMD in Schach zu halten.

Dennis Ziesecke Freier Redakteur - 29505 - 22. März 2014 - 20:54 #

Und vonwem soll Nvidia die x86-Lizenz bekommen? Die werden von Intel vergeben...

Cat Toaster (unregistriert) 23. März 2014 - 14:22 #

Es gibt NIEMANDEN auf dem gesamten Planeten der derart viele Milliarden seiner Aktionäre verbrennen könnte um gegen Intel in den Ring zu steigen. Eben weil man jedem der dies versuchen würde schlichtweg den Verstand absprechen muss und mit Blick auf nVidia´s Quartalsüberschuss: Nein, die können sich mit Intel im Leben nicht messen.

Der Drops ist leider gelutscht.

Auf der anderen Seite kann ich auch mit einem A10-6700 und einer 7790 nahezu ohne Abstriche und noch optisch weit vor jeder Konsole in FullHD zocken. Von daher ist das "Geschwafel von AMDs Rückstand im CPU-Segment" in der praktischen 0815-Anwendung eines Privatanwenders nicht wirklich praxisrelevant. Darf man keinem erzählen das man mit damit BF4 auf High spielen kann (ohne Mantle), will auch keiner wissen.

Ist halt immer die Frage ob man mit seinem Computer noch was anderes macht als Benchmarks.

Ganesh 16 Übertalent - 4870 - 23. März 2014 - 14:53 #

Genau das.

Und es natürlich ein bisschen seltsam, wenn jetzt Leute meckern, die ohnehin unabhängig von der Wirtschaftlichkeit ihrer Entscheidung immer Intel gekauft haben... wenn alle Leute glauben, dass sich die CPU von Intel lohnt, einfach nur, weil Intel draufsteht, dann kann Intel natürlich machen, was sie wollen. Vor allem, wenn AMD Mist baut...

Cat Toaster (unregistriert) 23. März 2014 - 16:03 #

AMD hat die Ressourcen einfach nicht, die Übernahme von ATi kam fünf Jahre zu spät und zu teuer. Den Ochsen von ALi, SiS und Via den Chipsatz zu überlassen als Intel mit dem Pentium die Tür zuschlug, hat AMD letztlich in Sachen Stabilität und Zuverlässigkeit in Verruf gebracht, ich kann keinem Kunden verübeln der danach die Schnauze voll hatte. K5 und K6 waren so furchtbar mies nicht in der Praxis wie die Benchmarks glauben ließen, analog zu heute. Nur die Chipsätze waren eine Katastrophe, wer mal auf nem ALi5-Board ne ISA-FritzCard unter Windows 98 einrichten musste oder diverse USB-Periphere der weiß vielleicht was ich meine. Als AMD mit dem Athlon gegen den P3 und den P4 Oberwasser bekam hat Intel seine Marktmacht eiskalt benutzt und die Chipsätze auf der AMD-Seite waren immer noch grauenhaft.

Historisch betrachtet darf man nicht vergessen dass es AMD überhaupt nur wegen Intel gibt, denn als die anfingen hatten deren Kunden Angst sich nur auf einen Anbieter zu stützen und so kam AMD ins Spiel und an seine x86-Lizenz und für Intel kam es natürlich nie in Frage dass der Lizenznehmer und Auftragsfertiger mit Intel-KnowHow zum ernshaften Wettbewerber werden dürfte. Stark verdichtet. Empfehle hier das Buch "Inside Intel" wer sich für die Historie interessiert.

Dennis Ziesecke Freier Redakteur - 29505 - 23. März 2014 - 16:08 #

Oh die AMD-Chipsätze für die ersten Athlons waren klasse. Da haben Via und SiS halt mal wieder den Ruf ruiniert.

Cat Toaster (unregistriert) 23. März 2014 - 16:29 #

Das K7M, das erste SlotA-Athlon-Board was in einer weißen Schachtel kam weil zu Anfang Asus dermaßen die Hose voll hatte das Intel denen keinen Chipsätze mehr liefert wenn sie ein AMD-Board bringen. Nur ein Indiz wie gewaltig die Macht von Intel war und ist :)

Cat Toaster (unregistriert) 23. März 2014 - 14:14 #

Ja, die 10Watt mehr gegenüber dem 4930K sprengen wirklich jeden Rahmen aber wenn man zwei Kerne mehr haben will ohne die Taktraten massiv zu senken ist es eigentlich sogar ein Effizienzwunder.

Ich kann mir auch einen 12-Kerner+HT auf mein Board stecken, es ist ja nicht so dass es das nicht gibt, nur gibt´s zu wenig Software die das nutzt als das ich über 2000,-€ für die CPU bereit wäre auszugeben.

MrFawlty 17 Shapeshifter - P - 6329 - 24. März 2014 - 21:21 #

Bei einem 4930K schreckt mich der TDP von 130 W auch ab.

Mein Quadcore hat 85 W TDP und als ich den damals im Jahre 2009 gekauft habe, dachte ich beim Blick in meine Kristallkugel, dass wir im Jahre 2014 im Desktop/Consumer Segment 8-Kern Prozessoren für 250 € mit 80 W TDP haben werden (und Software, die das ausnutzt).
Leider hat die Entwicklung keine so großen Fortschritte erzielt.

Immerhin gibt es ja bereits Spiele, die von mehr als 4-Kernen profitieren (z.B. CryEngine). Und DX12 wird ja auch für viele Kerne optimiert werden.

Cat Toaster (unregistriert) 24. März 2014 - 22:14 #

Du bekommst ja wie gesagt auch nen 12-Kerner in das TDP-Fenster, der hat halt nur gut nen 1GHz weniger Takt und eine 0 mehr an Deinem Wunschpreis. Problematisch ist tatsächlich das SMT-Programmierung keine ganz triviale Kiste ist wenn am Ende die Ausgabe von Bild, Ton, Physik, KI, MP-Positionen wieder synchron sein soll.

Zumal die alten Konsolen hier wenig Erfordernis boten für Spiele was zu ändern. Mit den neuen 8-Thread x86-Konsolen wird das endlich anders, vor allem weil sie auf SMT gehen müssen um die popelige Single-Thread-Leistung bei 1.6GHz zu kompensieren. Aber da kannst Du Dir im Gegenzug ausrechnen wie lang ein einfacher A10 4-Threader mit 4GHz noch ausreichen kann. Mit der richtigen GPU an der Seite bei gescheiten Settings musst Du schon wieder Richtung 4k-/Multi-Display/3D/120Hz+ gehen um in ein wirkliches CPU-Limit zu kommen.

Die dicken Brocken wie FSX von 2006 oder ein ArmA für den PC können das ja, nur letztlich haben die alle einen "Main-Thread" der an der Leistung eines einzigen Kernes hängt, da nützt es nix dass der FSX Fibres, Main-Thread! und bis zu 254 Texture-Threads kann, limitiert doch der Main-Thread und Du versuchst die CPU dann doch wieder Richtung 5GHz zu prügeln um das Limit anzuheben. ArmA2 hat wenn ich das recht erinnere wenigstens VoIP und KI in separate Threads ausgelagert nur VoIP nutze ich gar nicht und KI interessiert mich im Mehrspieler auch wenig. Letztlich muss man den Main-Thread parallelisieren und das scheint leichter gesagt als getan.

BF4 skaliert mit sechs Kernen plus HT ganz exzellent wie derzeit kein anderes Spiel (auch das einzige was ich daran gut finde). Interessant dabei ist aber zum Beispiel, dass es leistungstechnisch fast keinen Unterschied macht ob die CPU mit 4.5 oder 2.5GHz läuft. Zweite Abbildung -> http://www.techspot.com/review/734-battlefield-4-benchmarks/page6.html

Das Verhalten würde ich tatsächlich gern öfter sehen.

Multithreading können sie auf einmal alle: Frostbite, CryEngine eh und die Unreal-Engine hat es in Thief gezeigt. Die haben auch keine Wahl wenn die mit der "Nextgen" auf 900p wollen.

Ganesh 16 Übertalent - 4870 - 23. März 2014 - 14:58 #

Haswell-E wird sich genauso wenig lohnen, wie die Vorgänger-Serien. Die Mainboards haben saftige Aufpreise und die wirklich guten Prozessoren (im Vergleich zum 4770K oder dem entsprechenden Xeon) werden auch unverhältnismäßig teuer werden. Und die 8 Kerne bleiben mit Sicherheit dem Top-Modell vorbehalten.

Außerdem fragt sich halt: wofür? Es gibt zu wenig Anwendungen, die 8 Kerne nutzen können und für die meisten dürfte HT auch schon einiges bringen.

Cat Toaster (unregistriert) 23. März 2014 - 15:20 #

FSX und 4k-Video-Encoding bei mir, für letzteres würde ich zwei Kerne mehr nehmen. Auch das Vierkanal-Speicher-Interface und die 40 PCIe-Lanes gegenüber der popeligen 16 Lanes eines Standard-Haswell machen die Plattform für Multi-GPU-User wie mich interessant in Verbindung mit Triple-Display-Gaming. Dafür! Ist natürlich ein kleiner Randgruppenmarkt, denn wie oben beschrieben, für 0815-Gaming in FullHD reicht heute erschreckend wenig.

Ganesh 16 Übertalent - 4870 - 24. März 2014 - 10:59 #

Für solche Szenarien gibt es doch eigentlich die Workstation-Xeons, oder?

Cat Toaster (unregistriert) 24. März 2014 - 22:49 #

Der Sockel 2011 kommt ja aus dem Serverbereich, der X79 ist nur ein umgelabelter C600-Chipsatz und alle CPUs für den Sockel sind Xeons bzw. kuzerhand umbenannte Consumer-Modelle.

Wenn ich die 2500,-€ (IvyEP) über hätte könnte ich in dieses meine Board auch einen 12-Kerner XEON stecken, da erschien mir der artverwandte 4930k (IvyE) mit seinen 500,-€ etwas preiswerter, zumal ich den 12-Kerner nicht auf 4GHz+ geprügelt bekomme was für altertümliche Anwendungen wie den FSX besonders überlebenswichtig ist. Noch ist Single-Thread-Leistung in vielen Bereichen unverzichtbar.

Xeon heisst ja erstmal nichts, ein Xeon 1230v3 für den Sockel 1150 ist auch nichts weiter als ein Consumer i7-4770 ohne GPU und dazu deutlich günstiger. Krüppelt entsprechend auch nur mit Zwei-Kanal-Speicherinterface und 16 PCIe-Lanes rum. Dafür kann er ECC. Würde mir aber nichts nützen.

Sandy-E, Ivy-E und demnächst Haswell-E brauchen ja eben deswegen einen anderen Sockel um die zusätzlichen Lanes und Speicherkanäle nach außen zu führen und die Architektur kommt aus dem Serverbereich der Dickschiffe, da erfindet Intel für uns Consumer nichts neues. :)

floppi 22 AAA-Gamer - - 32813 - 23. März 2014 - 17:00 #

Wofür? Das habe ich mich Anno 2006 auch gefragt, als ich mir einen Gaming-Laptop gekauft und mich gegen einen Dual-Core und für einen Centrino entschieden habe. Ein fataler Fehler, wie sich 1-2 Jahre später herausstellte...

Ganesh 16 Übertalent - 4870 - 24. März 2014 - 11:01 #

Ich glaube, die Situation hat sich entscheidend verändert: Heute kannst du für 200€ einen 4-Kerner mit HT bekommen... da ist der Sprung zu echten 8 Kernen nicht mehr dme Mehrpreis angemessen.

McGressive 19 Megatalent - 13786 - 22. März 2014 - 13:29 #

Erstmal danke für den ausführlichen Chromecast-Test. Sehr aufschlussreich.

Bist du vielleicht noch so nett und magst uns noch ein paar der "minimal teureren Android Sticks" nennen, die deiner Meinung nach die nützlicheren Alternativen darstellen (gerade in Hinblick auf die Vielfalt der abspielbaren Formate)?

Dennis Ziesecke Freier Redakteur - 29505 - 22. März 2014 - 13:44 #

Entweder ein ausgemustertes Smartphone, der erwähnte Raspberry Pi mit Mediencenter-Betriebssystem oder ein Stick wie http://www.amazon.de/Top-Elecs-MK809II-Android-Bluetooth/dp/B00HJK6U8K/ref=sr_1_41?ie=UTF8&qid=1395491721&sr=8-41&keywords=hdmi+tv+stick+android . Generell sind HDMI-Sticks allgemein nichts anderes als der Platinenteil eines Smartphones oder Tablets. Praktisch ist auch Miracast, damit lässt sich der Displayinhalt des Telefons kabellos auf den Fernseher übertragen. Sowas beherrschen schon 50 Euro preiswerte BD-Player - und können zusätzlich eben auch noch BDs abspielen und haben meistens noch Apps für Streamingdienste dabei.

Als Direktimport aus China gibts noch massenweise Alternativen mit zwei bis vier Rechenkernen. Versand ist günstig, Preise generell auch. Hab ein älteres Modell mit leider etwas sehr langsamem A5-Dualcore, der hat vor über zwei Jahren nur 35 Euro gekostet und spielt trotzdem mehr Format ab als Chromecast ;) .

Die Sticks können im Gegensatz zum Chromecast eben alles, was so ein Smartphone wiedergeben kann. Also eigentlich fast alle gängigen Formate. Das ist es ja, was mich am Chromecast so stört, das Ding ist kaputt-kastriert.

McGressive 19 Megatalent - 13786 - 22. März 2014 - 18:26 #

Super, danke. Mit der Grundlage kann ich mich jetzt auf Netzrecherche begeben :)

Dennis Ziesecke Freier Redakteur - 29505 - 22. März 2014 - 18:32 #

Ich habe mit dem Shop hier gute Erfahrungen gemacht (Lieferung kam nach wenigen Tagen, Hardware war heile und im Forum gabs zahlreiche gute Tipps dazu): http://www.pandawill.com/notebook-tablet-pc-mid-c438/android-tv-box.html?cat=733

Janslaq (unregistriert) 22. März 2014 - 17:18 #

Ich finde Chromecast ziemlich eingeschränkt, es gibt bisher kaum Apps die unterstützt werden. Dann lieber als Alternative zu einem Miracast Adapter wie den Cloudnetgo CR-M200S greifen, der spiegelt das komplette Bild 1zu1.

Dennis Ziesecke Freier Redakteur - 29505 - 22. März 2014 - 17:56 #

Das war jetzt die tl;dr-Zusammenfassung des Kurztests in der News? ;)

Name (unregistriert) 22. März 2014 - 22:36 #

Als billige Apple Tv-Alternative zum Netflixgucken ist der Chromecast allerbestens geeignet und hat gegenüber Apple-TV den Vorteil von sowohl Android- als auch iOS-Geräten offiziell unterstützt zu werden. Und jede Menge Strom spart man auch, wenn man wie ich mangels Smart-TV bisher seine alte PS3 und neuerdings die PS4 für Netflix benutzt hat. Heiß wird das Ding allerdings, ist mir auch aufgefallen.

Dennis Ziesecke Freier Redakteur - 29505 - 22. März 2014 - 22:41 #

Japp. Wie geschrieben, für die beworbenen Streamingdienste ist das Ding ok. Aber eben auch ausschließlich. Leider wird oft der Eindruck erweckt, Chromecast könnte mehr.

Cohen 16 Übertalent - 4455 - 23. März 2014 - 10:56 #

Es gibt allerdings auch mittlerweile sehr günstige Blu-ray-Player mit WLAN und Internet-Apps, das sind auch nicht solche Stromschlucker.

Meinem Bruder hatte ich letzten Monat einen Sony BDP-S3100 für 53 € (Neugerät mit voller Garantie, aber dank minimalem Kratzer reduziert) gekauft, damit er auch Zugriff auf Amazon Instant Prime (läuft das auf dem Chromecast?) hat. Dank WLAN keine lästige Verkabelung, und er braucht auch kein Smartphone/Tablet für die Steuerung, eine klassische Fernedienung liegt ja bei.

Dennis Ziesecke Freier Redakteur - 29505 - 23. März 2014 - 11:19 #

Amazon Instant Prime funktioniert nicht mit Chromecast. Soll irgendwann kommen. Aber IMO gibts bislang ja nicht einmal eine Android-App dafür.

Esketamin 14 Komm-Experte - P - 2556 - 23. März 2014 - 8:26 #

Die neuen i7 dürften ein Grund sein, doch noch etwas mit dem CPU/MoBo-Kauf zu warten :-) Ich freue mich drauf.

Cat Toaster (unregistriert) 23. März 2014 - 15:43 #

Warten kann man immer. Ob DDR4 schon in seiner ersten Inkarnation etwa gegen DDR3-2133+ einen echten Mehrwert wird bieten können?

Ich bin mir nicht sicher ob da am Ende wirklich ein Mehrwert außer die zwei zusätzlichen Kerne für die Plattform rauskommt. Ohne Frage kann der gut abgehangene X79 einen Nachfolger vertragen doch stosse zumindest ich da bisher an keine Limits. Wenn ich reich wäre ginge auch ein Xeon auf Ivy-EP-Basis mit acht, zehn oder zwölf Kernen schon heute und sofort auf den X79. Wenn man das wollte könnte man es also haben.

Schaumermal. Wenn Intel endlich den Heatspreader wieder ordentlich verklebt...

Labrador Nelson 27 Spiele-Experte - - 86555 - 23. März 2014 - 13:03 #

Schöne Zusammenstellung! Und danke für die Bestätigung, einen Spiele-PC mit aktuell verfügbarer Technik kaufen zu dürfen, und zwar bereits jetzt! :)

Ano von Nym (unregistriert) 23. März 2014 - 13:57 #

Das Intel-Video (und andere Monster-Tablets) sind mal wieder einer schöner Beitrag zum Thema 'Wenn aus Satire Wirklichkeit wird...'.

Zum Vergleich hier das seinerzeit nicht unbeliebte, und immer noch herrliche 'IPad 2 - review' von 2011:

youtube.com/watch?v=ct1_r_61sk8

Novachen 18 Doppel-Voter - 12755 - 23. März 2014 - 22:53 #

Extreme Edition... unglaublich, dass es echt wieder 9 Jahre her ist, als ich mir ein System mit dem Pentium IV Spitzenmodell mit 3,7 Ghz in der Extreme Edition und einer GeForce 6800 Ultra hingestellt habe :D.

Und schon 2 Jahre später gab den Core 2 Extreme mit 2,8 GHz in meinen PC mit einer GeForce 8800 GTX :D.

Und danach hat das mit der Aufrüstung rapide abgenommen, denn das System war ganze 4 Jahre auf der Höhe und schon vor mittlerweile 3 Jahren wurde das gegen mein aktuelles System mit i7 2600 und 2x GeForce 580 GTX getauscht...

Und der Prozessor ist ja noch wirklich absolut ausreichend für Spiele... der wird die 4 Jahre auf jedenfall auch wieder schaffen, wenn nicht gar mehr. Bei der Grafikkarte wird es bei meinen Auflösungen hingegen langsam etwas knapp, auch wenn da auf 2560x1440 zumindest noch so ein paar Reserven übrig sind.

Aber ich habe wirklich gerne diesen 4 Jahreszyklus als wirklich jährlich oder alle 2 Jahre was aufrüsten zu müssen.

Slaytanic 22 AAA-Gamer - P - 32827 - 23. März 2014 - 23:54 #

Da stimme ich dir zu. Häufig reicht ein Grafikkartenupdate aus um auf der Höhe der Zeit zu bleiben.

gar_DE 16 Übertalent - P - 5792 - 24. März 2014 - 9:42 #

Leider wird ja dann bei einem CPU-Update gleich noch ein Mainboard-Update notwendig, da sich die Sockel ständig ändern...
Wenn man Pech hat, kann man dann auch noch den RAM wegschmeißen und ist so gleich mal locker 400-500 Euro los.
Aber noch reichen ja die 4 Kerne.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)