Hardware-News KW47: HD6990 vs. GTX595, Tablet Odys Genesis
Teil der Exklusiv-Serie Hardware-News

PC andere
Bild von Dennis Ziesecke
Dennis Ziesecke 29654 EXP - Freier Redakteur,R10,S10,C9,A8,J10
Dieser User unterstützt GG mit einem Abonnement oder nutzt Freimonate via GG-Gulden.Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.GG-Gründungsfan: Hat in 2009 einmalig 25 Euro gespendetAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertReportage-Guru: Hat 10 Reportagen oder FAQ-Previews geschriebenDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Schreiber: Hat Stufe 10 der Schreiber-Klasse erreicht

22. November 2010 - 18:41 — vor 6 Jahren zuletzt aktualisiert
Wie so oft in der Zeit der lockeren Geldbörse - umgangssprachlich auch "Vorweihnachtszeit" genannt -, übertrumpfen sich die Hersteller potenter Zocker-Grafikkarten derzeit mit neuen Produkten. AMD und NVidia verlegen den Kampf um die Spitzenposition der prestigeträchtigen Dual-GPU-Monsterkarten allerdings in das kommende Jahr. Erste Informationen über NVidias GTX595 und AMDs HD6990 darf der geneigte Gamer aber natürlich schon in diesem Roundup begutachten. 

Auch wenn selbst ernannte Core-Gamer es oft noch nicht so recht wahr haben wollen - die Zeit der Sofa-Kompatiblen Multimediatablets bricht heran. Nicht nur, dass im kommenden Jahr eine schier unüberschaubar große Menge neuer Tablets auf Basis von Googles Android-Betriebssystem den Markt überschwemmen werden, auch in diesem Jahr erscheint noch ein Tablet mit interessanten technischen Daten zu einem verlockenden Preis. Mehr dazu am Ende dieser News. Bei NVidia bereitet man sich hingegen bereits auf die im Januar stattfindende CES vor. Dort soll vor allem der Tegra2-Chip in vielen Neuvorstellungen auftauchen. Bei Tegra handelt es sich um mehrere ARM-Prozessorkerne, Ein- und Ausgabeschnittstellen sowie eine entfernt der Geforce ähnliche Grafikeinheit auf einem Chip. Der Energiebedarf dieses "System on a Chip", kurz SOC, liegt dabei mit wenigen Watt auf sehr niedrigem Niveau. So soll Tegra2 kleine und lüfterlose Tablets mit beeindruckender Grafikleistung ermöglichen. Doch Tegra ist (noch) nicht Thema dieses Hardware-Roundsups. Wenden wir uns stattdessen NVidias Lieblingskonkurrenten zu:


AMDs Roadmap für die Phenom-II-Prozessorserie.


AMDs letzte Prozessoren für AM3


Mit den im kommenden Jahr erscheinenden Fusion-CPUs endet AMDs Engagement für den Sockel AM3. Für CPU-Neulinge wird ein neuer Sockel namens AM3+ eingeführt. Prozessoren wie Llano oder Bulldozer werden nicht mehr auf AM3-Mainboards passen, allerdings lassen sich aktuelle AM3-CPUs auch mit den kommenden AM3+-Boards betreiben. Es ist also weiterhin möglich Stück für Stück aufzurüsten und sich zum neuen Mainboard erst einmal eine preiswerte AM3-CPU anzuschaffen.

Die letzten Vertreter für diesen Sockel werden in den kommenden Wochen und Monaten erscheinen. Noch in diesem Jahr kommt mit dem Sempron 150 ein Vertreter des Lowend-Bereichs. Dieser Single-Core-Prozessor rechnet mit 2,9 GHz und wird für weniger als 40 Euro erhältlich sein. Zocker sollten allerdings lieber die Finger von diesem Prozessor lassen, kaum ein aktuelles Spiel läuft mit Einkern-CPUs durchgehend flüssig.

Bei den Doppelkernern verstärkt noch ab Dezember diesen Jahres der Phenom II X2 565 mit 3,4 GHz das Portfolio, während mit dem X2 570 im ersten Quartal 2011 der vorerst schnellste AM3-X2-Prozessor erscheinen wird.

Vier Kerne ohne L3-Cache nennt AMD hingegen Athlon II X4. Zuwachs bekommt die Reihe durch den Athlon II X4 650 mit 3,2 GHz im ersten Quartal kommenden Jahres. Ende des zweiten Quartals erscheint dann mit dem Athlon II X4 655 das wohl endgültig schnellste Modell der Baureihe mit 3,3 Ghz. Mehr Leistung versprechen die Vierkerner aus der Phenom-II-Serie. Dank des integerierten L3-Zwischenspeichers sind sie bei einigen Anwendungen etwas flotter als ihre preiswerteren Athlon-II-Brüder.  Mit dem Phenom II X4 975 erscheint noch dieses Jahr ein neues Topmodell mit 3,6 GHz Taktfrequenz. Anfang kommenden Jahres folgt ein etwas energiebewusster arbeitendes Modell namens Phenom II X4 960 mit 3,3 GHz und einer TDP von 95 Watt (statt 125 Watt beim 975).

Auch wenn aktuelle Spiele nur sehr selten einen Nutzen aus mehr als vier Rechenkernen ziehen können: AMDs Sechskerner sind im Kommen. Mit dem Phenom II X6 1100T soll in den nächsten Monaten ein mit 3,3 GHz getaktetes Modell die Spitzenposition bei AMD übernehmen. Ebenso in den ersten Monaten des kommenden Jahres erscheint mit dem Phenom II X6 1065T ein 2,9 GHz schneller Sechskernprozessor. Beide CPUs sind mit einer TDP (Thermal Design Power, dieser Wert gibt an, auf welche Verlustleistung Mainboard und Kühlung zum Betrieb mit diesem Prozessor maximal ausgelegt sein müssen. Es handelt sich dabei aber nicht um die normale Energieaufnahme der CPU, die TDP gibt höchstens Rückschlüsse auf den tatsächlichen Energiebedarf) von 125 Watt ausgelegt, ein 95W-Modell erscheint mit dem Phenom II X6 1075 (3,0 GHz Taktfrequenz) erst im dritten Quartal 2011.


Ein verwackelter Screenshot zeigt Details zu AMDs Highendgrafikkarte HD6990.


Spezifikationen der HD6990 bekannt

Schnell, schneller, Dual-GPU. Mit der HD6990 soll im kommenden Jahr das Topmodell aus AMDs 6000er-Reihe erscheinen. Die "Antilles" genannte Architektur basiert auf zwei "Cayman"-GPUs, wie sie (einzeln) auf der im Dezember erscheinenden Radeon HD6970 zum Einsatz kommen. Im Forum von 3DCenter findet sich eine Präsentationsfolie von AMD auf der einige technische Details beschrieben werden. Insgesamt soll die HD6990 demnach mit 3840 Streamprozessoren aufwarten können (zwei GPUs zu je 1920 Streamprozessoren) und die gesamte Rechenleistung soll bei 6 TeraFLOPS liegen, was für eine Grafikkarte durchaus beachtlich erscheint. Die insgesamt 4 GB GDDR5-Speicher werden wahrscheinlich mit einem Takt von 2400 MHz laufen, das Speicherinterface verbleibt bei 256 Bit. Interessant ist die Leistungsaufnahme, die mit 300 Watt unter Last und 30 Watt im Idle angegeben wurde. 300 Watt unter Last ist für eine Dual-GPU-Lösung vergleichsweise wenig und liegt eher auf dem Niveau schneller Single-GPU-Grafikkarten wie NVidias GTX480.

Die Daten der Cayman-GPUs dürften sich aus diesen Angaben ableiten lassen - immerhin sollen zwei vollwertige Cayman-GPUs bei der HD6990 zum Einsatz kommen. Dem entsprechend würde eine HD6970 auf 1920 Streamprozessoren kommen. Aktuelle Gerüchte besagen allerdings, dass AMD die Menge der Recheneinheiten auf 1536 gekürzt haben soll. Ob es sich bei der Antilles-Folie um ein älteres Datenblatt mit optimistisch geschätzten Werten handelt oder ob AMDs Topmodelle tatsächlich über diese beeindruckende Zahl an Shadereinheiten verfügen werden ist bislang noch unklar.


NVidias Konter - GTX595 vs. HD6990?

Die letzte Dual-GPU-Grafikkarte aus dem Hause NVidia war die Geforce GTX295. Fermi-GPUs der ersten Generation eigneten sich aufgrund der sehr hohen Energieaufnahme nicht für eine Dual-GPU-Lösung. Erst die mittlerweile überarbeitete Fermi-Architektur soll wieder zu einem solchen Grafikmonster zusammengelötet werden. Ein erstes Foto einer entsprechenden Platine fand jetzt den Weg ins Internet. Zu sehen sind neben den beiden GPUs und einem SLI-Brückenchip auf die insgesamt 12 Speicherchips, welche auf der Rückseite der Karte sicherlich erneut zu finden sein werden. Damit spricht viel für ein 384 Bit breites Speicherinterface mit 3 GB GDDR5-RAM. Gut zu sehen sind auch die Stecker für zwei 8-Pin-PCIe-Stromstecker. Da jeder dieser Stecker bis zu 150 Watt aus dem Netzteil übertragen darf und auch die PCIe-Schnittstelle 75 Watt überträgt bedeutet diese Bestückung eine maximale Leistungsaufnahme von 375 Watt. NVidia wird also entweder die GPUs intern beschneiden müssen oder die Taktraten (und die Versorgungsspannung) recht drastisch senken um nicht zu viel Energie aufzunehmen. Eine vollwertige GTX580 benötigt unter Last mehr als 300 Watt elektrischer Energie, zwei dieser GPUs dürften sich also nur schwer mit 375 Watt begnügen. Die Veröffentlichung entsprechender Grafikkarten ist laut Informationen von Fudzilla für das erste Quartal 2011 als Konter auf AMDs HD6990 geplant. Preislich werden allerdings sowohl AMDs als auch NVidias Luxusklasse nichts für den durchschnittlichen Spieler -- geringere Preise als 550-600 Euro sind kaum zu erwarten.


Tablet-Nachschub: Odys Genesis -- 8,4 Zoll für 199 Euro

Auch wenn Multimediatablets recht praktische Begleiter für Couch und Sofa sind erscheint vielen potentiellen Käufern der Preis oft als zu hoch angesetzt. Apple verlangt für das iPad mindestens 499 Euro, Samsung bietet das kleinere Galaxy Tab gar erst ab 599 Euro an. Viele preiswertere Geräte eignen sich durch langsame CPUs, schlechte Displays und kaum bedienbare Oberflächen nicht für den Alltag.

Mit dem Genesis versucht Axdia International unter der Marke Odys ein preiswertes aber benutzerfreundliches Tablet auf den Markt zu bringen. Basierend auf dem freien Betriebssystem Android in der nicht mehr ganz aktuellen Version 2.1 besteht dank dem Android-Marketplace Zugriff auf tausende Programme. Das Display ist 8,4 Zoll groß und löst mit 800x600 Bildpunkten vergleichsweise gering auf. In der anvisierten Preisklasse scheint der Einsatz eines teuren IPS-Panels wie bei Apples iPad unwahrscheinlich. Wie blickwinkelabhängig der Bildschirm letztlich ausfällt muss ein Praxistest zeigen. Odys gewährt zwar keine Informationen zur Touchscreen-Technik, es darf allerdings aufgrund der Preisklasse davon ausgegangen werden, dass es sich nicht um ein kapazitives sondern um ein resistives Touchdisplay handeln wird. Die Bedienung kapazitiver Touchscreens fällt normalerweise etwas zuverlässiger und benutzerfreundlicher aus. Bei resistiven Touchoberflächen benötigt die Bedienung ein wenig Druck durch die Finger während kapazitive Oberflächen sich mit der Fingerspitze "streicheln" lassen.

Als CPU kommt, bislang noch ungewöhnlich für Tablets, ein ARM9-Dualcore-Prozessor zum Einsatz, der mit 660 MHz eher zurückhaltend getaktet ist, dank des zweiten Kernes aber durchaus ordentliche Leistungswerte verspricht. Informationen über den genutzten Grafikchip liegen leider noch nicht vor. Als Speicher sind 4 GB Flash im Genesis fest verbaut, erweitern lässt sich der Speicher durch SD-Karten. Sehr vorteilhaft bei der täglichen Benutzung ist das vergleichsweise geringe Gewicht von nur 490 Gramm -- das mit 10 Zoll etwas größere WeTab wiegt knapp das Doppelte! Im Vergleich zu Apples iPad fällt die Akkulaufzeit etwas zurück - maximal 6 Stunden bei Videowiedergabe und 12 Stunden bei Musikwiedergabe soll das Genesis laut Hersteller erreichen. Apple legt mit bis zu 10 Stunden bei Videowiedergabe die Messlatte deutlich höher.

Odys bewirbt das Genesis nicht nur als Tablet sondern auch als eBook-Reader. Zu diesem Zwecke ist eine eBook-App vorinstalliert, die mit den gängigen Formaten EPUB, TXT, PDF, FB2, RTF sowie Adobes DRM-Kopierschutzfunktionen umgehen können soll. Allerdings eignen sich andere Android-Geräte ebenso als eBook-Reader, da auf dem Marktplatz viele freie eBook-Apps angeboten werden. Videos soll das Genesis in den Formaten AVI, 3GP, FLV, MP4, RM, RMVB, MKV und MOV anspielen, Musik wird in den Formaten MP3, WMA, APE, FLAC, OGG, WAV und AAC akzeptiert. Welche Auflösungen und Bandbreiten bei den Videos letztlich flüssig dargestellt werden können ist noch ungewiss. Auf Telefoniefunktionen und UMTS-Datenzugang muss der Käufer des Odys-Tablets verzichten, für die Nutzung in der Wohnung wurde aber WLAN mit maximal 54Mbit/sek. integriert. Ein Mini-USB-Stecker sorgt für Verbindung mit dem PC, per Klinkenstecker lassen sich Kopfhörer oder Lautsprecher anschließen. Der Hersteller gibt eine UVP von 279 Euro an, allerdings listen erste Händler das Genesis bereits zu einem Preis von 199 Euro. 


Das Odys Genesis kommt mit 8,4 Zoll Bildgröße und Android 2.1 für nur 199 Euro auf den Markt.

Dennis Ziesecke Freier Redakteur - P - 29654 - 22. November 2010 - 19:04 #

Das Genesis und auch die neuen Creative-Tablets werde ich mir beizeiten näher anschauen..

Olphas 24 Trolljäger - - 47753 - 22. November 2010 - 20:24 #

Wenn Du die Gelegenheit bekommst, das Genesis mal für uns näher anzuschauen, würd ich mich sehr freuen :) .

Dennis Ziesecke Freier Redakteur - P - 29654 - 22. November 2010 - 22:15 #

Die Gelegenheit wird auf jeden Fall kommen.

Dennis Ziesecke Freier Redakteur - P - 29654 - 23. November 2010 - 10:36 #

Tja, auch wenns Prestige für die Hersteller bringen mag - so recht interessieren tut sich kaum noch jemand für die Top-Grafikkarten der jeweiligen Serien, hm? Kein Wunder, Spiele fordern die Leistung nicht mehr oder kaum noch. Die Entwicklung stagniert und nicht jeder ist Fan von Multimonitor-Gaming mit extremen Auflösungen oder von Dingen wie der Cinematic-Mod, die Grafikram zum Frühstück verspeist. Vielleicht sollten AMD und NVidia ihr Entwicklungsbudget etwas aus den Dualchip-Modellen nehmen und lieber andere Dinge verbessern. "Noch weiter gesenkter Energiebedarf" ist ja eh schon Thema. Mehr CPU-entlastende Berechnungen auf der Grafikkarten sind sinnvoll.

Ukewa 15 Kenner - 3689 - 23. November 2010 - 18:07 #

Auch wenn nicht jeder jedesmal ein Kommentar schreibt - glaub mir, deine HW-News lese ich jedenfalls immer sehr gerne :-)
-
Zur Leistung: Es ist einfach Schwachsinn. Die GPUs u CPUs kommen viel schneller, als die Coder Engines nachschieben können, die das alles richtig nutzen. Ergebnis ist schlampige Programmierung, welche auch auf guten Rechnern ruckelt. "Wir brauchen uns keine Mühe geben, die PCs sind auch für Spaghetti-Code schnell genug" :-)
Das bald erscheinende TwoWorlds-2 hingegen läuft wohl auch auf meinem E6600 u 8800GT Rechner mit(fast) max Details auf FullHD völlig flüssig.
Und wozu 4GB Grafikspeicher? Mir ist kein Spiel bekannt, welches 2GB annähernd vollkriegen würde, nichtmal 1 GB!
Das selbe beim RAM: 2GB erreicht kein Spiel..ok vielleicht 1 oder 2.
-
Klar man kann jetzt den Konsolen die Schuld zuschieben. Andererseits hat früher immer jeder gemeckert, daß man teuere Hardware für die aktuellen Spiele braucht. Das ist jetzt Vergangenheit und trotzdem ists nicht Recht. Im Sommer zu heiß, im Winter zu kalt.

Dennis Ziesecke Freier Redakteur - P - 29654 - 23. November 2010 - 18:16 #

Zum Grafikspeicher: Die Karte hat 4 GB weil jede GPU ihren eigenen VRAM benötigt. Korrekt wären also eigentlich 2x2 GB. Und die bekommt man "herkömmlich" tatsächlich nur schwer voll. Aber mit hohen Auflösungen, Kantenglättungseinstellungen und HD-Mods klappt das. AMD hat mit Eyefinity durchaus ein Argument für Auflösungen jenseits der 5760x1200 Bildpunkte ;) .

Zum Arbeitsspeicher: Bei 25 Euro pro 2GB-Modul braucht man da eigentlich nicht diskutieren. Wer sich da nicht mindestens 4 GB in den Rechner steckt ist selbst schuld. Klar, viele Programme sind noch 32-Bit-Software und adressieren für sich selbst nur 2 GB. Aber da ist dann ja auch noch das OS und Hintergrundprogramme. Mein Browser frisst gerne mal 300 MB, einige Java-Tools kommen auf die gleiche Menge. Und die laufen bei mir oft nebenher. Oft läuft der RAM dann im Hintergrund trotzdem voll wenn man nur zwei GB nutzt, Folge sind oft kleine Ruckler im Spiel - und die nerven einfach. Wenn man einen solchen Nervfaktor mit der Investition von nur 25 Euro eliminieren kann - super!

Ukewa 15 Kenner - 3689 - 23. November 2010 - 18:39 #

Zum ersten Absatz: Das sind aber die ABSOLUTEN Ausnahmen!
Solche welche stört es dann auch nicht, mehrere tausend Euro in den PC zu investieren..
und zum zwoten: Hatte dran gedacht aber vergessen es zu erwähnen, daß meine Aussage sich auf spielen -ohne- sonstige Last bezieht. Wenn ich ein Spiel starte, ist normalerweise alles andere beendet. Wenn man also haushält, reichen auch heute noch 2GB RAM für 99% aller Spiele (ohne HD-MODs) aus. Am RAM sollte es ja auch nicht scheitern, zur Not macht man halt 3 oder 4 GB rein :-)
-
[EDIT]: Ach u was ich noch speziell zu den CPUs sagen wollte.. Wer braucht diese schnellen Dinger eigentlich wirklich? Ich rede jetzt von Spielern, schließlich sind wir auf eine Spiele-Seite :-)
Meine CPU ist viele Jahre alt und reicht, wie gesagt, oft noch völlig aus.
-
[..und noch eins]: 30 FPS reichen für ein flüssiges Spielerlebnis..besser noch etwas Reserve - sagen wir also 40-50fps seien optimal. Mehr wäre rein technisch sowieso völlig überlüssig (im wahrsten Sinne :-) ), da die meisten Monitore mit 50 o 60 Hz takten. Also selbst -wenn- ein PC 80fps schafft, zeigt der Monitor nur 50-60 davon an.

Dennis Ziesecke Freier Redakteur - P - 29654 - 23. November 2010 - 18:48 #

Du vergisst die 3D-Monitore, die können auch jetzt schon 120hz. Und Spiele in 3D benötigen gleich mal die doppelte Rechenpower.

Übrigens, du schaltest sicher NICHT dein Betriebssystem aus wenn du spielst ;) .. Sind einige hundert MB im Speicher. Virenscanner? Aus beim Spielen? Mutig.. Und: nicht jeder arbeitet wie du. Ich sehe es nicht ein, alle Programme zu schließen nur weil ich etwas zocken will. Ich hab die 25 Euro investiert ;) . Geht sicher vielen so und das ist gut so - 4 GB sind praktisch und preiswert, was spricht dagegen?

Und nur weil *dir* die CPU reicht bedeutet das ja nicht, dass andere nicht doch Bedarf an neuen Prozessoren haben. Wenn jemand einen Rechner mit altem Singlecore hat und jetzt aufrüsten will, was ist dann? Einen Hexacore braucht der sicher nicht, nicht zum Zocken. NOCH nicht. Aber: es gibt noch eine Welt abseits der Spiele. Und da gerade bei GG viele User offenbar die Jugend schon hinter sich gelassen haben, ist die Chance darauf, dass sie auch "seriöse" Anwendungen nutzen recht hoch. Ein Spiele-PC ist keine Konsole. Ein Spiele-PC kann auch ein Arbeitsgerät sein und ist es oft auch. Und wer eine eigene Familie hat freut sich oft über die Gelegenheit schnell mal ein Video zu bearbeiten - da trumpfen sogar bei 0815-Usern die flotten CPUs auf. HD-Videokameras kosten nämlich nicht mehr viel..

Ukewa 15 Kenner - 3689 - 23. November 2010 - 21:41 #

Die 3D-Monitore takten mit 120Hz, ja. Aber die Spiele laufen dann nicht mit 120Hz..das hast Du sicher auch nicht gemeint, wollte es nur sagen :-)
Daß Spiele im Moment das doppelte brauchen für 3D ist eine Notlösung um auf die Schnelle viele Spiele (per Treiberupdate) dafür anbieten zu können. Zukünftige Engines brauchen dafür < 10% Mehrleistung (Crytek z.B. spricht von "kaum 5%").
-
Nein das OS schalte ich nicht aus zum Spielen :-) Virenscanner ist nicht der Rede wert, und ja, wenn ich -richtig- spiele, dann sind das weinige bis einige Stunden am Stück, da brauche ich keinen Browser etc. im Hintergrund. Will auch garnicht drüber diskutieren, die paar Euro hat wohl jeder übrig um sich zusätzliche 2GB einzubauen. Mach ich auch, sobald ich Win7 64 und neue Hardware habe.
-
Ich meine, daß zum Spielen eine mittlere CPU völlig ausreicht. Daß Bedarf an schnelleren da ist, leuchtet mir natürlich ein! Bin nicht gegen Fortschritt..Wer Videos bearbeiten möchte UND die entsprechende Software benutzt, profitiert von vielen schnellen Kernen.

Dennis Ziesecke Freier Redakteur - P - 29654 - 23. November 2010 - 22:54 #

Die Engines werden aber auch nur weiterentwickelt wenn 3D sich wirklich als Trend weiter durchsetzt. Ohne brillenlose Displays sehe ich da noch schwarz, die Einstiegshürde ist zu groß.

Ukewa 15 Kenner - 3689 - 24. November 2010 - 17:54 #

Wie meinst Du das?
Ok, die Brillen sind noch teuer, aber das ist doch immer so bei neuen Dingen..
Was mich am meisten stören würde (wenn ich sowas hätte), wäre die starke Abdunklung durch die Brille. Mindestens(!) 50% Licht gehen flöten, das ist bei dunklen Szenen bestimmt sehr von Nachteil...

Dennis Ziesecke Freier Redakteur - P - 29654 - 24. November 2010 - 19:03 #

Es gibt autostereoskopische Displays, die keine Brille benötigen für den 3D-Effekt. Auf der IFA wurden unter anderem welche vorgestellt.

Jadiger 16 Übertalent - 5124 - 23. November 2010 - 15:15 #

Die Dual Karte von Amd hört sich ja richtig gut an. Und von wegen man braucht keine schnellen Grafikkarten spiel mal Full HD in DX11 auf maximum da schaust wie schnell selbst eine OC GTX470 in die Knie geht.
Aber ich weiss was du meinst 90% der Spiele sidn ja Konsolen Spiele die nicht mal Kantenglätung im Menü haben. Und solche Spiele laufen meist mit Standartkarten weil die Konsolen ja auch schon einige Jahre auf den Buckel haben.
Aber ich hab keinen PC damit ich in kleinen Auflösungen ohne AA oder AF spiele und natürlich alles auf Max. Ich hatte eine 4870 zum release gekuaft und hatte sie bis vor 6 Monaten auch noch drin. Die war super aber dann kamm METRO und ruckelte vor sich hin. Dann noch Just Couse2 oder wie das heist. Da war es arg auf der ruckel kannte. Und von GTA4 will ich garnicht erst angangen das ist ja sowieso eine frechheit die umsetzung. Aber fakt ist die PC-Hardware wir nicht wirklich genutzt der ruf des PCs wird ja auch immer schlechter.

Dennis Ziesecke Freier Redakteur - P - 29654 - 23. November 2010 - 15:32 #

Metro 2033 und Crysis (Warhead) sind von den Spielen, die ich hier habe die einzigen, die meine recht stark übertaktete 460 in 1920x1200 mit 4xAA an ihre Grenzen schubsen. Das aber mächtig, gebe ich zu ;) . Ansonsten sind die meisten Spiele aber doch vergleichsweise genügsam (geworden).

Die ATI schaut tatsächlich ganz nett aus - allerdings muss sich natürlich auch erst zeigen, wie sehr sich die Designänderungen auf die Performance auswirken. 4D-Shader (und davon recht viele) und zwei Tesselationeinheiten statt einer, könnte was werden. Spannender finde ich trotzdem die 6970, vor allem wenn sie tatsächlich mit 1920 Shadern kommt.

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)