AC4: Exklusive Grafikeffekte für Nvidia-Grafikkarten

PC
Bild von pel.Z
pel.Z 4852 EXP - 16 Übertalent,R7,J7
Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertBronze-Jäger: Hat Stufe 5 der Jäger-Klasse erreichtLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Reporter: Hat Stufe 6 der Reporter-Klasse erreichtDiskutierer: Hat 1000 EXP durch Comments erhaltenStar: Hat 1000 Kudos für eigene News/Artikel erhaltenKommentierer: Hat 100 EXP mit Comments verdientVorbild: Hat mindestens 100 Kudos erhaltenTop-News-Schreiber: Hat mindestens 5 Top-News geschriebenSammler: Hat mindestens 50 Spiele in seiner SammlungProfiler: Hat sein Profil komplett ausgefüllt

30. Oktober 2013 - 17:09
Assassin's Creed 4 - Black Flag ab 13,35 € bei Amazon.de kaufen.

Die PC-Version des gestern für Konsolen erschienenen Assassin's Creed 4 - Black Flag (GG-Test) erscheint erst am 21. November (wir berichteten). Die Wartezeit können sich PC-Spieler mit entsprechend potenter Hardware unter dem Schreibtisch mit diesem Video überbrücken, das einen Vorgeschmack auf die exklusiven Grafikeffekte gibt. Folgende Features werden genannt:

  • Percentage-Closer Soft Shadows (kurz: PCSS) lässt Schatten durch entfernungsabhängiges Weichzeichnen realistischer aussehen. Je weiter der Schatten vom Objekt entfernt ist, das den Schatten wirft, desto weicher wird er.
  • Optimierte Godrays, die für das geschulte Auge wohl einfach nur optimierter aussehen.
  • Verbessertes Horizon-Based Ambient Occlusion (kurz: HBAO+) sorgt durch eine erhöhte Genauigkeit und das Rendern des Effekts in voller Auflösung für bessere Schatteneffekte ohne lästige Artefakte.
  • Temporal Approximate Anti-Aliasing (kurz: TXAA) ist eine Technik, die in ähnlicher Form auch in CGI-Filmen zum Einsatz kommt und im Vergleich zu MSAA bei gleicher Performance ein besseres Ergebnis liefern soll. TXAA setzt zwingend eine Grafikkarte der Kepler-Generation voraus.

Dass diese Effekte die Immersion nun wirklich so erhöhen, wie es der Trailer verspricht und sogar den Kauf neuer Hardware rechtfertigen darf bezweifelt werden. Die voraussichtlichen Systemvoraussetzungen für die PC-Version findet ihr übrigens hier.

Video:

ChuckBROOZeG 19 Megatalent - 18733 - 30. Oktober 2013 - 18:24 #

Irgendwie ist das der falsche Weg genau wie PhysiX.

FPS-Player (unregistriert) 30. Oktober 2013 - 18:29 #

Warum? Ich finde PhysiX in manchen Spielen, die es gut ausnutzen, klasse.

ChuckBROOZeG 19 Megatalent - 18733 - 30. Oktober 2013 - 18:36 #

Das ist doch gar nicht der Punkt.
Es geht darum das Techniken nicht weiterlizenziert werden und somit durch die Nutzung dessen der Spielehersteller eine Käuferschicht aussen vor lässt.
Ich mein mir kann es am Ende egal sein solange AMD weiterhin kleine Kraftwerke baut kaufe ich halt weiterhin nVidia. Ich finds nur einfach nicht schön als Szenario. Gleiches bei G-Sync. Betrifft mich dann auch aus mehrerlei Hinsicht (zum einen nVidia Graka und zum anderen kommt mir aber auch kein TN au den Tisch da kann ich ja gleich n Fernseher anschliessen :-D) nicht trotzdem unschön.

Novachen 18 Doppel-Voter - 12749 - 30. Oktober 2013 - 18:42 #

PhysX hat aber nach wie vor den Vorteil als Einzelkarte erworben zu werden. Auch wenn die Preise natürlich wegen verhältnismäßig geringer Stückzahl recht konstant hoch sind. Aber die Möglichkeit besteht nach wie vor.

Wobei ich glaube die GeForce 8600 GT als PCI(!) Version glaub ich sogar als PhysX Karte billiger ist als die PhysX Karten selbst. Und man hat da sogar noch ne Backup Grafikkarte integriert :D.

JC_Denton 13 Koop-Gamer - 1751 - 30. Oktober 2013 - 18:55 #

Laufen die neueren PhysX-Spiele überhaupt noch mit den eigenständigen Karten?

ChuckBROOZeG 19 Megatalent - 18733 - 30. Oktober 2013 - 18:59 #

Die schauen nur nach dem Treiberframework. Die Frage sollte daher eher lauten erkennen die aktuellen PhysiX Treiber noch die alten Karten ^^.

Novachen 18 Doppel-Voter - 12749 - 30. Oktober 2013 - 18:59 #

Da sich an der Architektur von PhysX seit der Übernahme von Nvidia überhaupt nichts verändert hat und es glaube ich nicht einmal Treiberupdates für PhysX direkt von Nvidia gegeben hat, spricht da eigentlich nichts dagegen. Ist ja noch immer der selbe Treiber auf den zugegriffen wird.

JC_Denton 13 Koop-Gamer - 1751 - 30. Oktober 2013 - 19:11 #

Wikipedia sagt, dass die neuen Spiele nur noch über GPU laufen. Für ein paar Spiele braucht man wohl sogar immer noch die eigene Karte.

http://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support

Marco Büttinghausen 19 Megatalent - P - 19331 - 6. November 2013 - 12:33 #

der PhysX Treiber ist bei jedem Nvidia Treiber (Paket) mit dabei und die Versionsnummer ändert sich hier auch alle paar Wochen, da wird also durchaus weiter dran geschraubt.

ChuckBROOZeG 19 Megatalent - 18733 - 30. Oktober 2013 - 18:58 #

Na da würde ich aber was passiv gekühltes moderneres vorziehen ^^.
Die 8000er Serie ist dann doch als reine Physix Einheit ein wenig zu durstig ^^, obwohl das dürfte AMD Käufern ja eh egal sein :-D.

Gibt es die dedizierten original PhysiX Karten wirklich noch? Na ja moderne Boards haben gar kein PCI mehr :-D, und ich denke das möglicherweise auch die Physikleistung doch mittlerweile zu gering geworden ist. Wenn ich mich Recht entsinne gab es damals doch schon 2 unterschiedliche von der Leistung her.

Novachen 18 Doppel-Voter - 12749 - 30. Oktober 2013 - 19:15 #

Die PPU hat sich seit damals tatsächlich nicht verändert ;). Die war schon damals eigentlich total überfordert und ist es für sich genommen heute noch mehr. Das wurde schon immer mit der Geschwindigkeit anderer Hardware ausgeglichen. Im Grunde ist die PPU nur dazu da überhaupt bestimmte Sachen zu berechnen, der ganze Rest der dadurch überhaupt aufkommt, überlässt sie gerne CPU und GPU.

Zumindest wäre es mir neu, dass sich da was in den letzten Jahren was geändert hätte. Ist quasi wie mit 3dfx. Einmal gekauft, alles nützliche auf die Grafikhardware gepackt und bis in alle Ewigkeit ohne Änderungen weiterverwendet.

Aber naja, ich find das mit den exklusiven Grafikfeatures auch eher bescheiden an und für sich. Aber mit 3dfx war das ja damals auch nichts anderes. Mit GeForce 256 sah man damals trotz besserer Hardware gegenüber einer Voodoo Karte ja trotzdem schlechtere Grafik. Ist jetzt quasi nichts anderes. Auch wenn ich tatsächlich den Eindruck habe, dass exklusive Nvidia Schnittstellen tatsächlich deutlich häufiger verwendet werden als exklusive AMD-Entwicklungen.
Das heißt, hat man eben eine GeForce in seinem PC hat man da deutlich seltener irgendwelche Sorgen über grafische Features als wenn eine Radeon die Grafik darstellt.

ChuckBROOZeG 19 Megatalent - 18733 - 30. Oktober 2013 - 19:23 #

Ich sag ja eine bedenkliche Entwicklung.

Und das mit 3Dfx damals. Wenn man es genau nimmt war Glide ein abgespecktes OpenGL. Das Problem war nur die Nvidia OpenGL Treiber waren Kagge.

freak393 12 Trollwächter - P - 1111 - 30. Oktober 2013 - 22:00 #

Richtig - und mit "Mantle" welches demnächst die Bühne betritt gibt es bald noch eine Option.

Eigentlich ist Wettbewerb ja schön und richtig - "früher" ging es aber noch stärker um Geschwindigkeit/Leistung - ich vermute, dass das auf Dauer einfach eine sehr teure Art des Wettbewerbs ist und die Konsolenzyklen hier auch ein wenig bremsen.

Also fängt man an, an der Software zu drehen oder "Exklusivdeals" für DLC sowieso für so und so lange etc. abzuschließen.

Ich hoffe es findet sich ein gesunder Mix - irgendwann ist der Kunde frustriert weil Ihm kein Anbieter mehr eine vollwertige Lösung anbieten kann.

Dennis Ziesecke Freier Redakteur - 29502 - 30. Oktober 2013 - 21:29 #

Die PhysX-Karte von Anno-Dunnemals sind aber extrem lahm, da ist selbst die 8600GT x-mal schneller. Sinnvoll ist das also nicht.

ChuckBROOZeG 19 Megatalent - 18733 - 30. Oktober 2013 - 21:39 #

Vor allem wer hat noch nen PCI (32bit) Steckplatz in einem modernen Rechner? Dann doch lieber ne passive 650 reinstecken ^^

Novachen 18 Doppel-Voter - 12749 - 30. Oktober 2013 - 23:27 #

Der PhysX Chip der auf aktuellen GeForce Karten verbaut ist, ist nicht schneller als die Standalone Karten.

Wenn man eine AMD Karte mit vergleichbaren Taktraten einer GeForce im System hat und eine PhsyX Karte dazu hat, ist die Performance nicht wirklich schlechter.

Wenn es in Spielen eine umfassende PhysX Integration gibt und diese aktiviert wird, hat man eigentlich immer einen doch deutlichen Performanceabfall, welche im Extremfall tatsächlich ins Ruckeln übergehen kann, obwohl man eine potente CPU und GPU drin hat.

ChuckBROOZeG 19 Megatalent - 18733 - 30. Oktober 2013 - 23:28 #

Mhm ich hab mir das lange nicht mehr angescahut aber ich dachte eigentlich immer das da kein Chip verbaut ist sondern das sie das wie OpenCL bei AMD über Compute also CUDA machen.

Novachen 18 Doppel-Voter - 12749 - 30. Oktober 2013 - 23:35 #

So tief bin ich da in der Hardware nicht drin, aber ich bin da eigentlich tatsächlich von der PPU ausgegangen, also von dem so genannten Physikprozessor...

Ich weiß aber bei der Programmierung mit PhysX, dass es eben ein leichtes ist damit ein System schnell an seine Grenzen zu bringen. Nur ist mit PhysX in Sachen Physikberechnungen halt mehr drin als ohne. Der Physikprozessor oder eben die Schnittstelle ist schon hilfreich, aber für wirklich anspruchsvolle Integration lange nicht schnell genug.

Habe beispielsweise für FreeSpace2 einen PhysX Build entwickelt wo PhysX halt viele Physikberechnungen durchführt. Trümmerteile, Asteroidenfelder etc.. Sobald in Asteroidenfeldern geschossen wurde und sich die Asteroiden in einzelne Trümmer verwandelt haben, die eben eigene Berechnungen bekommen, wurde es zunehmend leider eine absolute Diashow je mehr Asteroidenstücke zerteilt wurden :D.
Mit höheren Taktraten bei der Grafik und CPU passiert das eben nicht mehr so extrem.

Dennis Ziesecke Freier Redakteur - 29502 - 30. Oktober 2013 - 21:53 #

"Kleine Kraftwerke" ist aber schon etwas arg gelogen. 20 Watt mehr bei Highend (respektive nix mehr bei der 290x gegenüber Titan) und sogar weniger Stromverbrauch im Idle und bei Stillstand kann man nun wirklich nicht mehr "kraftwerk" nennen.

ChuckBROOZeG 19 Megatalent - 18733 - 30. Oktober 2013 - 22:14 #

Also bei Anandtech genhemigt sich die 290x mit Uber Schaltung gegen ne Titan Titan zb in Crysis 3 ca 60 Watt mehr bei Furmark 50 Watt.
Und im Idle liegt sie auch drüber.
http://www.anandtech.com/show/7457/the-radeon-r9-290x-review/19

Und bei allen anderen Tests die ich gesehen hab sah das ähnlich aus.
Ganz zu schweigen davon das ich es lieber mit ner 780 Vergleichen würde.

Dennis Ziesecke Freier Redakteur - 29502 - 30. Oktober 2013 - 23:07 #

Nur dass die 290x schneller ist als die Titan und daher nicht mit der langsameren 780 verglichen werden sollte.

ChuckBROOZeG 19 Megatalent - 18733 - 30. Oktober 2013 - 23:25 #

Schneller als Titan ist auch so eine pauschale Aussage die so nicht ganz klar getroffen werden sollte. Sie ist in manchen Tests und vor allem in manchen Testumgebungen schneller ja aber mit Referenzkühler taktet sie sich auch zu schnell wegen Wärme wieder runter was viele Tests nicht abdecken/aufzeigen (Stichwort immer schön Board auf den Tisch und Karte drauf aber ja nicht aus Zeitgründen in nen Kompletten Rechner einbauen da kommt man dann schnell auch zu Testparcours wo plötzlich die 290x sich doch mit der 780 misst und nur knapp schlägt wobei auch die Lücke nicht so riesig zwischen 780 und Titan ist aus Gamer Sicht).
Am Ende ist es aber egal weil es damit losging das sie mehr Strom verbraucht und das macht sie definitiv.
Der Rest Testumgebung Testauswahl etc oder wer 1% wo schneller ist geschissen drauf bei der Frage wer mehr Strom frisst und da liegt die 290x nunmal locker 20% "vor" der Titan.

MaverickM 17 Shapeshifter - 7451 - 31. Oktober 2013 - 2:22 #

Und jetzt rechne mal die paar Watt mehr Stromverbrauch gegen die ~300€ Aufpreis zur Titan...

Strom sparen ist ja schön und gut. Aber dann doch bitte, bei Dingen, die auch wirklich relevant sind.

ChuckBROOZeG 19 Megatalent - 18733 - 31. Oktober 2013 - 11:07 #

Warum sollte ich den Titan Preis hernehmen wenn ne 780 meiner Argumentation nach die Konkurenz zur 290x ist und dabei diese aktuell auch noch günstiger ist als ne 290x.
Und selbst 10 Watt im Idle sind bei der Laufzeit über ein Jahr gesehen schon so einiges an Euros die die Karte nochmal günstiger macht.

Cat Toaster (unregistriert) 31. Oktober 2013 - 2:45 #

In einer amtlichen Auflösung wie 4k/Eyefinity/Surround liegt die 290X je nach Titel aber auch bis zu 22% vor einer Titan, da darf sie auch mehr aus der Leitung ziehen. Ist letztlich aber auch Latte weil der Gegner der 290X die GTX780 ist und die verbläst in unzähligen erhältlichen OC-Varianten die Titan ebenfalls und dann ist sie auch kein Energiesparwunder mehr.

Stand heute ist: Ich bekomme eine relativ leise "Gigabyte GTX780 Windforce 3 OC Rev2" für 450,-€ inkl. AC4, Splinter Cell:Blacklist und Batman Arkham Origins oder eine im Prinzip gleichschnelle und identisch Energiehungrige 290X mit Betafeld4 und einem Kühlerdesign direkt aus der Akustikhölle für 589,-€.

Ich für meinen Teil habe da nicht lange überlegt.

ChuckBROOZeG 19 Megatalent - 18733 - 31. Oktober 2013 - 10:52 #

Über den Energieverbrauch der übertakteten 780 hab ich keinen Schimmer (ist ne Leistungsklasse die ich weder brauche noch mir leisten will schon gar nicht so "kurz" vor dem anstehenden 20nm Shrink) macht das wirklich 50 oder 60 Watt aus?

Aber die 290x wird es auch bald für unter 500 geben und dann sind sie von der Leistungen ausserhalb der tripple Monitor bzw extrem Resolution Umgebung aus gesehen nunmal ähnlich der 780. Und wie du genau wie ich vorher treffend erwähntest die wenigen Prozente die ne Titan vor einer 780 liegt sind einfach lachhaft. Warum immer dieser Vergleich zu der eigentlich nicht als Gamer Karte konzipierten Titan gezogen wird ist mir eh schleierhaft.

Ich hätte echt gerne mal eine vertrauenswürdige Statistik wie hoch der Anteil an Monitoren über 1600p bzw Eyfinity/Surround Display Konfigurationen bei Spielern wirklich ist genauso bei Wasser/Stickstoffkühlungen. Wenn der Anteil wirklich Signifikant ist kann man das natürlich ist die Gesamtbewertung einfließen lassen was die 290x für solche Käufer um ein gutes Stück attraktiver machen kann.

Cat Toaster (unregistriert) 31. Oktober 2013 - 13:01 #

Sobald man ans OC geht steigt die Leistungsaufnahme exponentiell und im Markt gibt es bei den 780ern mehr OC-Varianten als Referenzmodelle zu kaufen während es bei AMD nur die schlecht lieferbare Referenz gibt. Nimmt man eine leistungsmäßig zur R9 290X vergleichbare OC GTX780 zur Hand so ist die Leistungsaufnahme beider Karten recht ähnlich.

In der Liga nässt sich ohnehin kein Käufer zum Thema "Energiesparen" ein. Wenn Du Crossfire mit den AMD-Karten machst schaltet sich die zweite Karte komplett ab im Desktop-Betrieb inkl. Lüfter. Das kann nVidia nicht. Da mein Rechner sich ca. 10-15 Stunden am Tag an diesem Zustand befindet und ich danach nicht nur "Furmark" spiele ist die Leistungsaufnahme unter Extremlast die AMD für die Mehrleistung angelastet wird im Gesamtmix der Nutzung schon etwas lächerlich und wenig praxisrelevant.

Die R9 290X ist zumindest schlechter lieferbar und geht derzeit über 100,-€ oberhalb ihres EVP über den Tisch. Erträgliche Custom-Kühler kommen frühestens im Dezember. Baut man sich selbst einen drauf gehen noch mal 50,-€ weg. Ich weiß nicht ob die dieses Jahr noch mal unter 500,-€ kommt, habe so meine Zweifel und die OC-780 liegt dann schon zwei Monate bei 450,-€ und ist immer noch günstiger und hat das attraktivere Spielebundle.

Die Titan ist mit der hohen Double-Precision-Leistung und den 6GB VRAM eigentlich keine reine Gamer-Karte, klar. Trotzdem wird sie als Statussymbol wohl von manchem dazu mißbraucht und wenn AMD die in der Spieleleistung schlagen kann (genau wie eine OC GTX780 übrigens) kann man das ja ruhig erwähnen. Ansonsten ist die Titan ja eher der preiswerte Einstieg ins GPU-Computing.

Bis ausreichende Produktionskapazitäten in 20nm vorhanden sind und dann auch effektiv genutzt werden können wird es noch eine ganze weile dauern. AMD hat sich ganz bewusst für 28nm entschieden weil sie sich nicht wieder monatelang von der Fertigungsumstellung in die Lieferbarkeit ihrer Produkte spucken lassen wollten und nVidia wird mit dem Monsterchip in 20nm noch mehr Freude haben.

Wer Leistung will der kauft sie wenn er sie braucht denn auf irgendwas warten kann man immer. Wer warten kann der braucht´s auch nicht.

Statistik hin oder eher. Es sind genau die 4k/Eyefinity/Surround-Leute die auch 1-2 solcher Monster-Karten kaufen, denn für FullHD reicht auch was für 150,-€. Und ja, das Clientel ist sicherlich im einstelligen Prozentbereich, Geld verdienen die GPU-Entwickler im mittleren und unteren Preissegment aber dafür ist das "Prestige" im Highend-Bereich wohl recht bedeutsam.

ChuckBROOZeG 19 Megatalent - 18733 - 31. Oktober 2013 - 13:32 #

Schön zusammengefasst ^^.
Vor allem der Abschnitt mir der Titan gefällt mir weil es einfach mal ne sinnvolle Auseinandersetzung mit der Karte ist.

Ich kann nur sagen ich muss mir ja leider ne neue Karte zulegen da meine 260² defekt ist und ich seit 2 Monaten mit meiner Intel HD4600 rumassel. Aber als 1920x1200 Gamer (Fuq Off 1080p Dreck *duck* Fernseher Grütze da!) langt halt auch was in der 770er Klasse bis denn 20nm in ordentlichen Stückzahlen preiswert zu haben ist.
Ich muss gestehen das ich temporär noch am wackeln bin ob ich mir jetzt ne 280x oder ne 770 holen sollte für das eine Jahr. Leider bin ich kaum dazu gekommen Leistungstest für die karten durchzukauen (abgesehen davon das sich viele eh nur auf die 290x gestürzt haben).

Cat Toaster (unregistriert) 31. Oktober 2013 - 15:00 #

Naja, hatte zwei 7970 im Crossfire die ich für 150,-€ das Stück binnen eines Tages an den Mann gebracht habe. Die praktisch identische R9 280X ist sicher immer noch ein Preis-/Leistungshammer. Es wären auch zwei R9 290X geworden wenn "lagernd" bei Alternate nicht so ein dehnbarer Begriff gewesen wäre, während nVidia die GTX780 um 100,-€ gesenkt und drei Spiele dabei gepackt hat. So sehr bin ich dann doch nicht mit einem Hersteller verheiratet das ich 300,-€ und sechs Spielelizenzen zum Fenster rausschmeiße bei besserer Kühlung und mir das tagelang anschaue wie nun teurere "lagernde Karten das Lager nicht verlassen". Außerdem hat es mich interessiert was an dem dummen Gequatsche dran ist bei nVidia sei alles besser. Insbesondere Mikroruckler in "Metro Last Light", ein Fest mit nVidia bei 30-40fps! Am Ende lässt man das AA dann weg und hat dieselbe Performance wie mit zwei 280x. In anderen Spielen liegt nVidia vorn, tw. aber auch mit unfairen Mitteln so hat man bei SC:Blacklist wie schon früher bei The Witcher 2 den "Eyefinity-Support" für AMD einfach rausgepatcht weil´s "nVidia" gesponsorte Titel sind. Über solche Maschenschaften berichtet niemand. Das ärgert mich schon maßlos, hier geht´s nicht mehr darum um da ein Effekt mehr erscheint oder doch 10% mehr fps, hier werden Funktionalitäten komplett gestrichen gegen Geld aber die drei Leute die´s betrifft hört natürlich kein Mensch.

Also an Deiner Stelle für nur ein Jahr wäre mir 280X auch zu teuer. Ich hab im Wohnzimmer-Rechner ne 7790 verbaut (heisst jetzt R7 260X glaube ich), damit kannst Du alles in FullHD (sicher auch Deine paar Pixel mehr) mit High bis Ultra spielen. Erst wenn Du immer und überall 4xAA brauchst bringt Dich die 280x weiter.

Klar, bei Stereoskopie etwa liegt nVidia vorn und bei Referenzkühlungen. Bei OpenGL auch oder Linux-Treibern generell. Aber der 0815-Gamer der nur DirectX-Ambitionen kann einfach das Produkt mit dem besseren Preis-Leistungs-Verhältnis nehmen. Und ob man PhysX als Features ernst nehmen muss? Also ich tu´s nicht, wer will greift dann halt auch nVidia. Bei den Treibern nehmen die sich nicht furchtbar viel und die meisten Probleme sind durch das jeweilige "schmieren" des Entwicklers (AMD Evolved/nVidia How it´s to be played) verursacht. Das dies auf Kosten aller Kunden beider Lager geht rafft die Kundschaft aber nicht und schwenkt stattdessen willfährig die Fahne für das eine oder andere Lager.

ChuckBROOZeG 19 Megatalent - 18733 - 31. Oktober 2013 - 15:27 #

Na ja ich tendiere halt zu der Leistungsklasse 770/280x weil man halt doch nicht so recht einschätzen kann wie Performant die jetzt kommenden Titel wie WatchDogs und Co laufen. Und wenn sie gut genug laufen kann ja aus dem einen Jahr auch schnell zwei werden ^^ bis dann Star Citizen eine Aufrüstung nötig macht.

Da ich kaum noch Multiplayer spiele sind mir FPS-Raten jenseits der 40 auch mittlerweile egal :-D sprich ne 780 oder gar Sli/Crossfire muss nicht unbedingt sein. Ich persönlich bin genügsam. Wobei ich schon gestehen muss der Preisrutsch im 780er Bereich klingt schon verlockend ^^.

Ich glaube ich sollte mal im Media markt schauen was die haben und mal zum selber testen eine für ein paar Tage nach hause holen ^^. Aber die haben da glaube ich nur 7950er Karten. Oder war es 7750?

Aber ich hab gestern mal wegen der Spielebundles geschaut. Ich finde ja das Never Settle eher durch Masse den Klasse glänzt und wie das auch immer bei nVidia heisst einfach mal wenigstens eine oder 2 Otionen fehlt. Die sind irgendwie beide nur bedingt zurechenbar ^^.

Und ja das gegenseitige einkaufen in die Entwickler/Spiele läuft wie so vieles zu lasten des Spielers.

Wegen der Microruckler die sollen ja beide langsam in den Griff bekommen.

Cat Toaster (unregistriert) 31. Oktober 2013 - 15:55 #

Die Hardware die man in zwei Jahren für Star Citizen braucht gibt es frühestens in fünf Jahren im Handel, sonst ist es kein Chris Roberts Spiel. Da wird zum Release das Beste gerade mal gut genug sein :-)

Im Hangar-Modul haben sich die FPS immerhin mit zwei 780ern verdoppelt und das ist von 25 auf 50FPS von "schwer erträglich" auf "sehr angenehm".

Hinsichtlich der Spiele-Bundle sbin ich anderer Ansicht, alles was AMD beigibt im Never Settle-Bundle hatte ich schon und alles was nVidia dabei gibt ist echt Bullshit den ich nur habe weil er mir geschenkt wurde, diesen repetitiven Ubi-Müll AC4 und Splinter Cell. Arkham Origins, OK, werde ich aber auch nie durchspielen diesen Klopp-Mist. Das interessiert mich in etwas so sehr wie der Hohlbirnen-Shooter BF4 bei AMD den man aber nicht wirklich "gratis" dabei bekommt sondern den man sogar noch teuer bezahlt.

FarCry3, Sleeping Dogs, Hitman: Absolution, Tomb Raider, Saints Row4, Deus Ex HR aus dem Never-Settle-Forever-Bundle habe ich allesamt duchgespielt noch bevor sie AMD verschenkt hat. Das ist bestimmt ein dreistelliger Spielstunden-Wert. Das ist natürlich Geschmackssache aber ich würde jeden der Titel eher ein zweites Mal spielen bevor ich das Zeug was nVidia dabei gibt je länger als 30 Minuten spiele. Die abschließende Bewertung des Mehrwertes eines solchen Spiele-Bundles wird man letztlich dem Invididuum überlassen müssen.

Achso, falls noch einer so einen "Deluxe-Titel" von nVidia haben will: 2x Splinter Cell Blacklist und 1x Batman Arkham Origins für je 15,-€ pro Key hätte ich noch abzugeben.

Die Mikroruckler haben beide nicht im Griff, sie sind aber auch bei beiden nur ein Problem wenn man deutlich unter 60fps um die 30 kommt und Abhängig von der Engine.

ChuckBROOZeG 19 Megatalent - 18733 - 31. Oktober 2013 - 16:13 #

Ich hab mich bei den Spielen nur versucht höflich auszudrücken. ^^
Die einen bieten hornaltes Zeug und tun so als wenn es Vollpreistitel wären und die anderen haben 2 Vollpreistitel dabei und sind doch auf der generischen Seite ^^.

Und wegen Star Citizen ... ich mach mir grad mehr Gedanken drum endlich wieder einen ordentlichen Joystick herauszusuchen. Was die Grafikhardware anbelangt denk ich lieber nicht nach was nötig sein wird.

Cat Toaster (unregistriert) 31. Oktober 2013 - 2:49 #

Prima, in Splinter Cell Blacklist wurde der Eyefinity-Support mal rasch nachträglich und künstlich rausgepatcht und funktioniert jetzt nur noch mit nVidia-Karten. Ganz großes Tennis...Bekommen sie bei AC4 bestimmt ab Release hin.

warmalAnonymous2 (unregistriert) 31. Oktober 2013 - 8:34 #

ich hatte nie andere karten als nvidia und halte das trotzdem für eine schnappsidee.

Tr1nity 26 Spiele-Kenner - P - 73391 - 31. Oktober 2013 - 14:41 #

Ubisoft sollte mal mehr an den Gesichtern der Charaktere und Haare in ihren Spielen arbeiten, die immer noch sehr häßlich, immer gleich und extrem veraltet aussehen, als an so einem eher unmerklichen Schnickschnack-Gedöns. Und zwar für alle Grafikkarten. Frage mich echt, was dieser Exklusiv-Schmarren eigentlich soll.

Cat Toaster (unregistriert) 31. Oktober 2013 - 15:02 #

Ich hab leider gar nicht so viele Ubisoft-Titel wie ich stornieren möchte...

gar_DE 16 Übertalent - P - 5790 - 31. Oktober 2013 - 15:05 #

Die Engine ist noch die gleiche wie bei AC1 (für AC2 und AC3 jeweils aufgebohrt), kein Wunder, das die Grafik nach 6 Jahren etwas veraltet aussieht.

ChuckBROOZeG 19 Megatalent - 18733 - 31. Oktober 2013 - 15:28 #

Call of Duty basiert immer noch auf der Quake 3 Engine klar das das immer noch nach 100 Polygonen aussieht.

Tr1nity 26 Spiele-Kenner - P - 73391 - 1. November 2013 - 1:30 #

Das fällt mir nicht nur bei AC auf, sondern auch bei Serien wie Kane & Lynch, Far Cry, Call of Juarez etc. pp. Ich kann's einfach nicht mehr sehen. Alles gleich veraltet und häßlich. Stattdessen kommen die mit sowas daher...

gar_DE 16 Übertalent - P - 5790 - 31. Oktober 2013 - 14:58 #

Ich erinnere mich an die guten alten 3dfx-Zeiten. Da gab es das auch schon mal bei einigen Spielen.

PS: Ach ich sehe gerade, wer 3dfx damals gekauft hatte...

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit
guapo
News-Vorschlag: