Xbox 720: Verzögern Fertigungsprobleme die Produktion?

XOne
Bild von guapo
guapo 11864 EXP - 18 Doppel-Voter,R7,S1,A3,J8
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiStar: Hat 1000 Kudos für eigene News/Artikel erhaltenDebattierer: Hat 5000 EXP durch Comments erhaltenVielspieler: Hat 250 Spiele in seine Sammlung eingetragenDiskutierer: Hat 1000 EXP durch Comments erhaltenFleißposter: Hat 200 EXP mit Forumsposts verdientKommentierer: Hat 100 EXP mit Comments verdientAzubi-Redigierer: Hat 100 EXP beim Verbessern fremder News verdientVorbild: Hat mindestens 100 Kudos erhaltenTop-News-Schreiber: Hat mindestens 5 Top-News geschrieben

5. September 2012 - 17:37 — vor 6 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Wie die Website SemiAccurate aus Microsoft-nahen Quellen erfahren haben will, visiert der Konzern den September 2013 als Launch-Termin für die nächste Generation ihrer Xbox an. Diese Aussage deckt sich mit dem in einer Stellenanzeige genannten Weihnachtsgeschäft 2013 als Zeitraum für die Veröffentlichung (wir berichteten). Laut einer anderen Quelle innerhalb der Produktionskette soll jedoch von massiven Problemen bei der Chipausbeute die Rede sein – zu viele der Chips seien fehlerhaft und könnten daher nicht verwendet werden. Die Quote liege sogar nur auf einem Niveau ähnlich der Fermi-Chips von NVidia im Jahr 2009. Anfangs rangierte der Wert der brauchbaren Chips bei nur 20 bis 40 Prozent – für eine Massenfertigung wird jedoch typischerweise ein Wert zwischen 70 und 90 Prozent angestrebt.

Microsoft unternehme aber massive Anstrengungen bei mehreren Auftragsfertigern, um die Ausbeute signifikant zu erhöhen. Bei der Spekulation um die CPU der neuen Xbox scheint sich das Pendel indes weiter von IBM Power-EN in Richtung AMD x86 zu bewegen. Bei der Grafik scheint AMD als Lieferant bestätigt. Unklar ist noch, welche Technologien aus Graphics Core Next (GCN) beziehungsweise der HD7000-Reihe Anwendung bei der Custom-Xbox-GPU finden werden.

Deathsnake 20 Gold-Gamer - 22556 - 5. September 2012 - 12:13 #

Also doch AMD GPU + CPU. Intel war also nie im Gespräch wie auch NVidia. Dh. Steamkonsole wäre dann ne Lücke für die beiden oben genannten Hersteller.

Superhuman (unregistriert) 5. September 2012 - 16:15 #

Ich glaube nicht an eine CPU von AMD. Auch für Konsolen sind die was das Rechenleistung - Wärmeleistung Verhältnis angeht zu schlecht (Den Preis nehm ich bewusst raus, da die Endkundenpreise nichts mit den Spezialpreisen für solche Systeme zu tun haben).
Ich denke sie werden wieder IBM Power CPUs verwenden, was auch für eine eventuelle Abwärtskompatibilität von großem Vorteil wäre.

DarthMajor 15 Kenner - 3684 - 5. September 2012 - 21:24 #

War das nicht frühers, als AMD CPUs reine Heizlüfter waren? Dachte inzwischen haben die auch schon normale Werte erreicht?

Larnak 22 Motivator - 37541 - 7. September 2012 - 1:21 #

Hatten sie auch. Aber dann kam Bulldozer :D

volcatius (unregistriert) 5. September 2012 - 12:19 #

Da werde ich wohl beim Aufrüsten meines PCs im nächsten Jahr auch wieder auf AMD setzen.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 5. September 2012 - 13:04 #

Besser nicht, AMD ist mit den aktuellen CPUs nicht konkurrenzfähig. Das sage ich mit einem weinendem Auge, da ich große Hoffnungen auf AMDs Bulldozer hatte. Aber auch der Refresh Piledriver wird wohl nur knapp 10% schneller - bei weiterhin zu hohem Energiebedarf. Aber zum Glück wirds auch mit Intel-CPUs keine Kompatibilitätsprobleme mit kommenden Spielen geben..

guapo 18 Doppel-Voter - 11864 - 5. September 2012 - 13:37 #

Im Midrange-Bereich ist man doch eher pari? Phenom X4 mit 3.6 GHz/FX4170 können doch mit den (Einstiegs!-)i7 mithalten.

OtaQ 16 Übertalent - 4443 - 5. September 2012 - 13:48 #

Du meinst i5, nicht i7

Azzi (unregistriert) 5. September 2012 - 13:50 #

Nicht mal ansatzweise scheinbar schlägt der Prozessor nicht mal ein I3 kuckst du hier:
http://www.pcgameshardware.de/CPU-Hardware-154106/Tests/CPUs-und-Prozessoren-Test-Bestenliste-AMD-und-Intel-675663/

AMD Prozessoren sind im Augenblick einfach schlicht nicht zu empfehlen, nicht mal aus Preis Leistungs Sicht. Mit nem I5 ist man immer besser beraten.

Deathsnake 20 Gold-Gamer - 22556 - 5. September 2012 - 14:13 #

Aber ich wurde ja kritisiert als Verkäufer keine AMD zu empfehlen... Vielen Dank für die Liste!
Selbst das Topmodel 8150 schlägt nichtmal den i5 2400. Und der kostet ca 100 Euro weniger als der AMD. Selbst wenn das Intel Mainboard 30 Euro mehr kostet als das AM3, sparst du immer noch 70 Euro beim Kauf des Intel. Und wie ich in nen andern Threat man geschrieben hab - wir haben viele Reparaturen bei AMD-PCs und grad mal Upgrades bei Intel. Selbst Hardcore Fan die einem sagen "Früher war ich bei AMD" kaufen nun die i5 und i7. Und AMD selbst meinte mal auf einer Aktionärversammlung das man sich nicht mehr mit Intel im Top Bereich anlegen will.

Punisher 22 Motivator - P - 32223 - 5. September 2012 - 15:32 #

Hier... war früher wirklich ein AMD-Fan, weil die CPUs immer ein klasse Preis/Leistungs-Verhältnis geboten haben. Inzwischen sind die wirklich schlimm - nicht nur bei Spielen sondern auch bei Anwendungen ist der Unterschied drastisch, was mich als Computertäter leider wirklich stört.

Deathsnake 20 Gold-Gamer - 22556 - 5. September 2012 - 15:43 #

AMD hatte seine Zeit vom Athlon 1 gegen den P3 bis hin zum Athlon 64. Seit Intel dann den Core2Duo gebracht hatte ist man hinterher gelaufen. Als der Phenom 2 dann den Core2Quad eingeholt hatte, gabs schon den ersten i5.

APU-Bereich hingegen gehört (noch) AMD. Bis Intel da dran ist, könnte es noch dauern.

Punisher 22 Motivator - P - 32223 - 5. September 2012 - 21:26 #

Jow, der Athlon 64x2 war auch mein letzter AMD'ler... der hielt allerdings noch fast bis zum i5... den Core2Duo hatte ich in nem Notebook, der war mir aber aus irgendeinem Grund nie besonders "sympathisch"... keine Ahnung wieso, ich hatte immer ne Abneigung gegen den Chip.

Superhuman (unregistriert) 6. September 2012 - 11:04 #

Bin von meinem 64x2 auf nen Core2Duo gewechselt. Was für ne tolle CPU! Läuft heute immer noch wie beim kauf. Dauerhaft auf 3.2GHz statt der eigentlichen 2.5GHz mit nem relativ billigen normalen Luft Kühler. Und ich seh auch immer noch keinen wirklichen Grund aufzurüsten ;)

Der Core2 war definitiv der erste Sargnagel für AMD im Desktopsegment. Seitdem können sie einfach nichts mehr entgegensetzen.

guapo 18 Doppel-Voter - 11864 - 5. September 2012 - 14:10 #

66 zu 69 bzw. 73% bei einer Normierung auf 100 halte ich persönlich jetzt nicht für Welten-Unterschied (YMMV). Mein statement kam geformt durch THG(1): 171 (X4) zu 173 (i7). Aber ich stimme zu: die schnellsten Prozessoren kommen aktuell von Intel.

(1) http://www.tomshardware.com/charts/desktop-cpu-charts-2010/Gaming-Left-4-Dead,2432.html

Deathsnake 20 Gold-Gamer - 22556 - 5. September 2012 - 15:51 #

http://www.gamestar.de/hardware/prozessoren/amd-fx-8150-bulldozer/test/amd_fx_8150_bulldozer,346,2561298,3.html

Nur doof halt das die CPU genauso viel kostet wie der 1. Plazierte i7 2600k und langsamer als der i5 2400k. Dazu kommt das der AMD 8 Kerne mit je 3,6Ghz hat und der i5 2400 4 Kerne mit je 3,1Ghz.

guapo 18 Doppel-Voter - 11864 - 5. September 2012 - 16:02 #

Mit Sandy bridge ist Intel ordentlich was gelungen. Back on topic: bei der Xbox geht's um PowerCPU ./. AMD.

Deathproof 14 Komm-Experte - 2085 - 5. September 2012 - 14:11 #

Wenn Sony dann aber auch noch auf AMD setzt, kann AMD schon mal mit 80 mio CPUs absetzten, da kann man ja schon mal ins hintertreffen geraten bei der jetzigen Desktop Gen.
Bei den den Ports von Konsole zu Konsole wird es dann auch nicht so große unterschiede geben.
Wenn AMD schlau genug ist sollten sie auch noch auf dem PC ein besseres Ergnis zu erreichen, bei Ports.
Vielleicht klappt es auch erst bei der nächsten Konsolen Gen, aber die Chips scheinen ja schon mal nicht 08/15 zu sein.

Oynox Slider 14 Komm-Experte - 2264 - 5. September 2012 - 19:02 #

Deswegen kaufe ich die Konsole nicht zu release.. wer weiß ob es wieder eine Art RoD gibt.

Basti51 14 Komm-Experte - 1984 - 5. September 2012 - 19:21 #

Dito - besser immer mind. die 1. Revision abwarten. Hatte mit meiner jetzigen Box (Elite) auch nie Probleme.

Pitzilla 20 Gold-Gamer - P - 22256 - 5. September 2012 - 19:03 #

Ich war früher Auch immer Fan von AMD, bessere Leistung zum kleineren Preis. Man, waren wir damals stolz, als wir unsere erste AMD CPU mit 133Mhz konstant auf 166 laufen lassen konnten. Die Zeiten haben sich wohl zu Gunsten von Intel geändert.

gasterix (unregistriert) 5. September 2012 - 20:55 #

"zu viele der Chips seien fehlerhaft und könnten daher nicht verwendet werden"
Ist das normal? Ich habe leider keine Ahnung von Chip Herstellung.
Ich vermute mal es gibt immer eine Fehlerquote, aber wieso ist sie so bedeutend hoch?

Deathsnake 20 Gold-Gamer - 22556 - 5. September 2012 - 21:04 #

Evtl. sind die Dinger extrem anfällig. Was evtl. bedeuten kann das die Lebensdauer wahrscheinlich nicht über länger als die Garantie hinausgeht. Ist ja auch bei den neueren Monitoren so. Meinst nach ca 2, 5 Jahren gehen die Elektroden kaputt. Mit Glück davor. Erst letztens nen Kunden gehabt: Exakt 2 Jahre und 2 Wochen nach dem Kauf des Bildschirms war Feierabend. Da ist es allerdings meist beabsichtigt vom Hersteller. Billigchips und Elektroden nehmen und dann nach Garantieablauf muss der Kunde neu kaufen :( Als Verkäufer bist dann auch noch der Arsch weil man kein Service mehr anbieten und dem Kunden sagen muss, das er sich ein Neugerät kaufen kann. Meine Gainward 260 ist auch knapp nach Ablauf der Garantie abgeraucht, meine alten MSI 8800 GTS oder 6800 GT hingegen gehen noch ;)

Thomas Barth (unregistriert) 5. September 2012 - 21:09 #

Also mein Monitor hält mittlerweile schon das 7. Jahr. Gute alte Steinzeit-TFT-Technik. ;)

Deathsnake 20 Gold-Gamer - 22556 - 5. September 2012 - 21:14 #

Schrieb ja - die neueren ;) Mein alter Röhrenbildschirm von Samsung ist auch schon älter als 15 Jahre (wird zwar nimma so oft genutzt) und geht noch ^^ Hingegen ein Fujitsu 22" ist nach 3,5 Jahren ca abgeraucht :( Mal sehen wie lange sich der LG halten kann ^^

Gasterix (unregistriert) 5. September 2012 - 21:26 #

Jein, genau das dachte ich mir auch mal.
Meine Großmutter hat eine Trockenhaube von zirka 1950 oder 1965, jedenfalls mind. 20 jahre alt und sie geht wie am ersten Tag.
Gleiches mit anderen Dingen.
Aber, jetzt kommt das aber, wenn ein Hersteller das macht, verliert er Kunden.
Deswegen glaube ich nicht, dass viele das mit Absicht machen.
Ich jedenfalls bin jemand, wenn ein Gerät von einer Firma öfters defekt wird, kaufe ich keine Produkte mehr von dieser Firma, so geschehen bei *ZENSIERT*.
Ich will das nicht verallgemeinern, aber erst ging der Monitor eines Freundes kaputt und piepte unerträglich, dann ging einige Jahre später mein LCD Fernseher an extrem zu piepen.
Scheinbar hat diese Firma keine Ahnung oder/und verbaut absoluten Schrott.
Und andere Geräte die mir spontan nicht einfallen, hatten ebenfalls eine Macke (glaubt mir, ich habe gebrübelt, leider fällt es mir echt nicht ein.).
Und seit dem meide ich diese Firma, obwohl es ja nicht immer beabsichtigt, lernt man aber in der Regel als Kunde.
Ich meine mein *ZENSIERT* DVD Player ist über 10 Jahre alt und geht wie am ersten Tag, einwandfrei und der war im Laufe der 10 Jahre, sehr oft in Betrieb.

Daher sollte sich ein Hersteller zweimal überlegen ob er das besagte tut und "extra" eine art Timer einbaut (eben errechnet wie lange Bauteile halten).
Ich meide solch Hersteller ganz einfach und fahre damit bis heute eigentlich sehr gut.
Meine Lautsprecher von Logitech (exzelenter Support) sind sicher schon 12 jahre alt und funktionieren wunderbar, wie am ersten Tag.
Gleiches mit meiner Logitech mx 500, sie geht immernoch, wobei eine taste etwas störrisch ist, aber wer kann es einer Taste verübeln, welche 9 Jahre auf dem Buckel hat und fast nonstop im Einsatz war (damals war ich noch dauerzocker ^^)

Deathsnake 20 Gold-Gamer - 22556 - 5. September 2012 - 21:40 #

Ja so ist das bei mir. Hier ein Pic "Wall of Dead"

http://img836.imageshack.us/img836/7690/pic0164q.jpg

Meine ollen Asus und Gainward Karten *R.I.P.* Hab mal das Pic beschriftet. Komischerweise (Werbung) gehen meine MSI Karten ohne Probs. Obs sogar noch ne Geforce 2 Pro ist die in nen Testrechner drin sitzt. Oder 6800, 8880, die 560 oder meine neue 670 - keine Probleme. Hab nen Kunden ne PnV bestellt. Der hat die eingebaut, nen 3d Mark Test laufen lassen - abgeraucht (da natürlich gleich umgetauscht) Können natürlich auch "Montags"-Karten sein aber ich werd außer EVGA und MSI keine andern mehr kaufen ;)

guapo 18 Doppel-Voter - 11864 - 5. September 2012 - 22:38 #

Nichts gegen Trockenhauben, Staubsauger oder elektrische Dosenöffner von anno dazumal, hat aber mit aktuellen Mikrochips mit 28-32 nm Fertigungsprozess nichts zu tun. Ein hoher Ausschuss ist grundsätzlich beim Start einer neuen Produktion, vulgo Verschrumpfung ganz normal. Die im Originalartikel zitierte Quelle spricht auch von einem Zeitfenster innerhalb des Projektplans, wo eine grundlegende Optimierung des Prozesses stattfinden könnte.

Wer die letzte Frage beantworten kann, sollte sich direkt an Microsoft wenden :-)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 5. September 2012 - 21:20 #

Lasst uns mal spekulieren und nehmen wir dabei einfach an, die Aussage mit der Verzögerung aufgrund schlechter Yields sei echt. Da AMDs Bulldozer und auch die Piledriver in 32 nm produziert werden und offenbar in ausreichender Menge und ohne Yield-Probleme produziert werden können, dürfte es sich bei der XBox-CPU um ein speziell angepasstes oder gar neu entwickeltes Modell handeln. Realistisch wäre ein Trinitiy-Abkömmling mit integrierter GPU - Bulldozer-CPU mit VLIW4-Grafik, wie sie bei der HD69x0 zum Einsatz kam. Nur eben mit weniger Shadern als bei der HD69x0, da ansonsten die TDP zu hoch ausfallen dürfte. Eventuell wollte Microsoft mehr Leistung oder weniger Energiebedarf als AMD im Endkundenbereich aktuell liefern kann, unter Umständen sah AMD die einzige Chance in einem Shrink der Technik. Weniger als 32 nm sind aktuell allerdings von so gut wie keinem Fertiger zu handeln - TSMC tut sich mit 28nm arg schwer und vermeldet noch immer nur durchwachsene Yields. Nicht nur bei AMDs und Nvidias aktuellen GPUs sondern auch bei ARM-CPUs wie den S4 von Qualcomm. 22nm beherrscht im CPU-Bereich aktuell IMO eh nur Intel, was auch an den Tri-Gate-Transitoren liegt, die ansonsten noch niemand einsetzt. Ohne diese Tri-Gate-Transistoren dürften 22nm-Strukturen aufgrund der massiven Leckströme aber nur schwer realisierbar sein.

Schrumpft AMD also für die Box die (ebenfalls stark verspäteten) Trinitys? Oder setzt man noch einmal auf Llano, allerdings mit ebenfalls geschrumpften Strukturen? Kombiniert AMD eventuell tatsächlich erstmals GCN mit Piledriver-Kernen? Damit wäre die XBox-CPU AMDs Desktop- und Notebook-CPUs um eine Generation voraus. Würde aber unter Umständen die Probleme erklären.

Wie auch immer, wer jetzt auf die Grafikleistung einer HD 78x0 oder gar HD 79x0 hofft dürfte enttäuscht werden - so viel Platz für Lüftungssysteme ist in Konsolen dann doch nicht.

Punisher 22 Motivator - P - 32223 - 5. September 2012 - 21:32 #

Mir persönlich würde die Grafikleistung einer 77x0 schon völlig ausreichen - die läuft in meinem Desktop passiv gekühlt und kriegt erstaunlich viel gebacken.

Deathproof 14 Komm-Experte - 2085 - 6. September 2012 - 2:18 #

Das ganze basiert aber auf dem Wissen von Heute.
Als die PS3 rauskam war der Grafikchip aber eine 7800GTX variante die erst 2006 rauskam, also noch neu war.
Wir wissen ja noch nicht welche leistung die GPU 2013 oder 2014 haben wird.
Die CPU der X-Box hatte ja auch 2005 3 Kerne wo gerade mal 2 Kern Systeme kammen (Es gab auch schon 4 Kern CPUs von Intel(Intel Core 2 Extreme) aber erst 2006).
Mit unseren heutigen Wissen können wir vielleicht nur bedingt auf die Hardware von morgen schliessen, die forschung ist uns da vorraus.
Nur so als Beispiel: 2008 als bei uns HD ready kam wurde schon an 4K und UHD geforscht.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 6. September 2012 - 6:59 #

Die Techniken gab es trotzdem schon länger - meistens nur eben nicht auf dem Markt für Privatkunden. Vier Rechenkerne waren damals im Serversegment auch schon gängig. 4K gabs bei Kinoprojektoren auch schon vor 2008. Man kann sehr gut heute schon auf Technik von morgen schließen, man darf nur eben nicht die Augen verschließen.

Nur sieht es aktuell einfach nicht danach aus, dass AMD (und auf deren Technik basieren ja unsere Spekulationen) wirklich weltbewegende Neuerungen in der Hinterhand hat. Und auch der Profimarkt bietet gerade keine wirklich neuen Ansätze, die man für eine Konsole übernehmen könnte.

Ich lasse mich da gerne überraschen - 2 Gigabyte On-Chip-Memory und eine dedizierte GPU wären beispielsweise extrem geil weil schnell. Aber eben auch unrealistisch.

Deathproof 14 Komm-Experte - 2085 - 6. September 2012 - 9:27 #

Ich hab eben mal nachgeschaut und AMD Server CPUs mit 12 Kernen und 16 MB Level 3 cache gefunden, das hört sich dann schon anders an für eine Konsole im Jahre 2013.
Gut 2 GB On-Chip-Memory wären schnell, aber auch überdemesioniert bei eine Konsole, wo höchtens 2 Programme gleichzeitig laufen sollten.
Bei der GPU sieht das schon wieder anders aus, da FullHD auflösung vielleicht sogar 4K auflösung schon mehr platz benötigt.
Der Cell hatte ja auch In-Order Architektur, was eine direkte addressiebarkeit und abbrufbarkeit beschleunigt.
Ich will dir jetzt hier nichts über Hardware erklären, (du kennst dich mit sichheit besser aus wie ich, ich hole mir die Informationen immer nur dann wenn ich sie brauche) nur das geschreie von vielen anderen geht mir auf den s..k, das eine Konsole schon veraltet ist wenn sie rauskommt.
Alleine was ein Betriebssystem an ressurcen braucht, kann eine Konsole für die Hauptaufgabe: Spiele nutzen.
Jetzt mal ehrlich kein Spiel wird auf dem PC 16GB RAM nutzen, die installierten Dateien sind meistens ja noch kleiner.
Gut beim Viedeospeicher könnte man schon mal 2GB brauchen bei 3 angeschlossenen Monitoren.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 6. September 2012 - 9:40 #

Ich gehe davon aus, dass die Konsole eine APU nutzen wird - CPU und GPU auf einem DIE. Spart Geld, Platz und Strom, alles wichtige Punkte bei einer Konsole. Die 2 GB wären für Texturen durchaus sinnvoll, vor allem da die Heimkinobranche sich gerade auf 4K-Auflösungen einzuschießen droht, wie du ja schon angemerkt hast.

Eine Konsole muss eigentlich fast immer schon mehr oder weniger veraltet sein wenn sie erscheint. Zu lange ist die Entwicklungszeit, zu schnell der Technikzyklus außerhalb der abgeschotteten Konsolenwelt. Wer 2010 eine Konsole plant kann sich zwar CPU und GPU für das Ding designen lassen und 2014 mit einem Gerät auf den Markt kommen, das dann aktuellen PCs durchaus den Rang streitig macht. Eine Grafikkartengeneration beim PC später hat sich das dann aber eh wieder erledigt. Mittlerweile wahrscheinlich sogar eher früher, zu sehr steht bei den Herstellern die Vorsicht auf dem Businessplan.

Dazu kommt, dass Highend-Komponenten leider viel Strom fressen. Das lässt sich nur schwer mit einer halbwegs wohnzimmertauglichen Konsole vereinbaren. Zwar lässt sich da einiges optimieren - sowohl bei der Hard- als auch bei der Software, irgendwo sind allerdings physikalische Grenzen gesetzt. Daher auch der Hinweis auf die Fertigungsstrukturen: bei 22nm beginnt es mit Leckströmen mehr als nur kritisch zu werden, selbst 28nm haben TSMC und andere noch nicht komplett im Griff. Ich gehe auch von einer APU in 28nm aus - damit wäre ein Vorsprung gegenüber dem PC gegeben, es ließe sich mehr Leistung unterbringen und der Energiebedarf im Rahmen halten.

Wenn AMD die CPU fertigt, wäre die Bulldozer-Architektur (oder eben das aktuelle Refresh Piledriver) denkbar. Damit würde AMD der glücklosen Architektur auch neues Leben einhauchen und für eine weitere Verbreitung der neuen Befehlssätze sorgen. Mit diesen gewinnt ein Bulldozer arg an Leistung, allerdings werden sie bei PC-Software noch so gut wie nie genutzt, was sich mangels Verbreitung entsprechender CPUs so schnell nicht ändern wird. Anders wenn plötzlich einige Millionen Konsolen damit ausgestattet werden.

Zum Speicher musst du bedenken, dass die Konsolen im Normalfall nur einen Speicher für CPU und GPU nutzen - zumindest die aktuellen Modelle und ich sehe keinen Grund für eine kostenintensive Änderung an dieser Taktik. Die von mir hoffnungsvoll vorgeschlagenen 2 GB On-Chip-Speicher wären also für CPU und GPU gleichsam und würden den gesamten Spiele-Code sowie Texturen und anderes Geraffel enthalten. Aktuell müssen die Konsolen mit 512 MB auskommen, was schon bei Release der Konsolen viel zu wenig war.

guapo 18 Doppel-Voter - 11864 - 6. September 2012 - 11:17 #

4K wäre natürlich sensationell - kriegt man aber - glaube ich - im Mainstream noch nicht gebacken?

Dennis Ziesecke 21 AAA-Gamer - 30866 - 6. September 2012 - 11:58 #

Nicht wirklich, nein. Wobei Sony unter Garantie Displayport als Ausgang einsetzen wird und zumindest theoretisch 4K unterstützt. Vielleicht packen die noch nen Upscaler in die neue Playstation um Alibi-4K bieten zu können, zumindest bei Filmen. Spiele laufen dann zwar weiterhin nur in 720p oder 1080p, die Konsole kann aber als 4K beworben werden.

Microsoft wäre kurzsichtig, wenn sie nicht ähnlich handeln würden.

guapo 18 Doppel-Voter - 11864 - 6. September 2012 - 13:28 #

Zur Laufzeit wird 4K sicher [im Gamingbereich] Fuß fassen - erste Monitore gibt es schon; nimmt man Herrn Moore mit in die Rechnung.

War nicht bei einer Konsole ein modulares Konzept unter den Gerüchten? :)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 6. September 2012 - 14:26 #

4K Monitore sind aber noch sehr sehr teuer und selten. Selbst mit 2560 x 1440 tun sich die Hersteller ja offenbar noch schwer :( . Da werden Fernseher vielleicht den Trend zuerst setzen, hat mit Full-HD ja auch irgendwie geklappt - nachdem das Zeugs im TV-Bereich Einzug erhalten hat, waren plötzlich auch PC-Monitore mit der Auflösung bezahlbar. Dummerweise ging damit auch 16:9 einher - ich hoffe einfach mal, dass sich 21:9 nicht auch noch durchsetzen wird. Will mehr Platz nach oben als in der Breite. Ist mir bei Frauen im Prinzip ja auch lieber ;) .

Superhuman (unregistriert) 6. September 2012 - 18:31 #

Einfach nen Monitor kaufen, den man um 90° drehen kann. Mein favorisiertes Setup: 2 gleich große Monitore, einen "normal" (zum zocken, Filme/Videos schauen etc) und einen gedrehten zum surfen, programmieren, lesen etc ;)

guapo 18 Doppel-Voter - 11864 - 6. September 2012 - 18:42 #

ist ja asymmetrisch :)

Dennis Ziesecke 21 AAA-Gamer - 30866 - 6. September 2012 - 19:57 #

Hab ich. Ist trotzdem unpraktisch, dann fehlt mir Platz zur Seite ;) . 16:10 war schon sehr gut, vor allem mit zwei Screens. Aber stell dir mal 21:9 mit Pivot-Funktion vor. Grausam. Und das nur, damit zwei, drei Nutzer einen halben Zentimeter weniger Kinobalken sehen..

Superhuman (unregistriert) 6. September 2012 - 20:52 #

Dann zwei davon mit möglichst dünnem Rand und beide aufrecht nebeneinander, oder waagrecht übereinander :D

guapo 18 Doppel-Voter - 11864 - 6. September 2012 - 21:19 #

Lieber ein dicker :)
Gabs da nicht gerade manipulierte Bilder im Werbeprospekt bzgl. Rahmenstärke - weiß nur nicht mehr ob TV oder Monitor.

Dennis Ziesecke 21 AAA-Gamer - 30866 - 6. September 2012 - 22:39 #

Das war IMO ein TV von LG. "Jaaa, wir meinten das halt anders, kam das jetzt falsch rüber mit den photoshop-Bildern? Uh"

Deathsnake 20 Gold-Gamer - 22556 - 6. September 2012 - 10:12 #

Jetzt mal ehrlich kein Spiel wird auf dem PC 16GB RAM nutzen.

Hehe :D Das sagten 1992 auch die Leute das man nie nen 486 ausnutzen und je mehr als 4MB RAM gebraucht würde. 1 Jahr später kam Strike Commander und brauchte sogar mehr als 4MB und der 486 DX2 66 war zwar der beste aber über der Stadt fliegen mit über 25 FPS war auch da net möglich. Erst mit dem Pentium 90 mit 16MB war dann ein ruckelfreies Spielen möglich.
Also mal die Spiele mit der UE 3.5, 4 oder Cry Engine 4, ID Tech 6, FrostByte 3 und co laufen. Ich geh mal davon aus, das wir 2014 auf heutigen PCs Ruckelorgien haben.

Deathproof 14 Komm-Experte - 2085 - 6. September 2012 - 12:40 #

Gut du hast mich, hab ich mich ein bisschen ungenau ausgedrückt.
Ich meinte natürlich zur Zeit, wenn wir 1 Terabyte Ram und 10 Petabyte Massenspeicher (wie auch immer), haben werden auch Spiele 16GB ausnutzen. ;)

Mitarbeit