Aktuellen Nvidia-GPUs fehlt offenbar Unterstützung für ein wichtiges DX12-Feature

Bild von Denis Michel
Denis Michel 146613 EXP - Freier Redakteur,R10,S1,C1,A8,J10
Platin-Gamer: Hat den sehr hohen GamersGlobal-Rang 25 erreichtGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtIdol der Massen: Hat mindestens 10.000 Kudos bekommenExtrem-Schreiber: Hat mindestens 1000 News geschriebenTop-News-Meister: Hat mindestens 500 Top-News geschriebenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtSilber-Reporter: Hat Stufe 10 der Reporter-Klasse erreichtBronze-Jäger: Hat Stufe 5 der Jäger-Klasse erreichtBronze-Archivar: Hat Stufe 5 der Archivar-Klasse erreichtLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiBronze-Reporter: Hat Stufe 6 der Reporter-Klasse erreichtDiskutierer: Hat 1000 EXP durch Comments erhalten

2. September 2015 - 23:01 — vor 1 Jahr zuletzt aktualisiert

Eines der Kernfeatures von DirectX 12 ist das „Asynchronous Shader“, dank dem den Grafikkarten unter anderem möglich ist, GPGPU-Befehle und Render-Befehle gleichzeitig, statt nacheinander abzuarbeiten. Dies soll in DX12-Spielen für eine höhere Performance, bessere Framerate, sowie weniger Lags sorgen und den Einsatz zusätzlicher Effekte erlauben. Auch Virtual-Reality-Spiele sollen stark davon profitieren. Doch gerade bei diesem Feature sollen alle bisherigen Nvidia Grafikkarten, inklusive der aktuellen Maxwell-Reihe, passen.

Das zumindest behauptet ein Mitarbeiter von Oxide Games, der aktuell an dem DX12-Echtzeitstrategiespiel Ashes of the Singularity mitwerkelt. Dieser hat sich in einem umfangreichen Post zu Wort gemeldet und verriet, dass der Versuch, asynchrone Shader mit den Nvidia-Karten zu nutzen eine „echte Katastrophe in Bezug auf Leistung und Konformität“ war, obwohl der aktuelle Treiber kurioserweise vorgibt, diese Funktion zu unterstützen. Nvidia bat das Entwicklerteam daraufhin, das Feature bei den Geforce-Karten zu deaktivieren.

Aktuell gibt es für Nvidia noch keine nennenswerten Nachteile, könnte aber in Zukunft große Vorteile für AMD bedeuten, da ihre derzeitige Graphics Core-Next-Architektur die Funktionen unterstützt. Laut dem Oxide-Mitarbeiter beginnen die ersten Konsolenentwickler bereits die asynchronen Shader zu nutzen und einige Studios würden von einer Performance-Steigerung von bis zu 30 Prozent berichten. In naher Zukunft könnte es laut dem Insider für die aktuellen Geforce-Karten zum Problem werden, wenn die Engines, die für dieses Feature optimiert wurden, für den PC verfügbar werden. Nvidia hat sich bisher noch nicht dazu geäußert.

Aiex 16 Übertalent - 4335 - 2. September 2015 - 23:06 #

Kein Beinbruch, kauft man sich eben eine neue Grafikkarte.

Toxe 21 Motivator - P - 29979 - 2. September 2015 - 23:15 #

That's the spirit!

Vidar 18 Doppel-Voter - 12742 - 3. September 2015 - 8:45 #

Am besten von AMD ^^

Fischwaage 17 Shapeshifter - 6765 - 3. September 2015 - 13:00 #

Wenn man kein Problem mit lauten Lüftern, häufigen Abstürzen und unterirdischer Performance hat - jup, dann greift man beherzt zu einer AMD Grafikkarte.

D43 15 Kenner - 3603 - 3. September 2015 - 13:16 #

Du neigst einfach zum übertreiben, gäh.

><((((*>

Ein weiterer Fisch für denn Troll mit Waage...

Fischwaage 17 Shapeshifter - 6765 - 3. September 2015 - 13:20 #

3-4 ATI Grafikkarten probiert durch die Jahre und immer enttäuscht worden. Nie wieder ATI / AMD! Gilt übrigens auch für CPUs aber auf diesem Markt ist AMD ja schon lange nicht mehr Ernst zu nehmen.

D43 15 Kenner - 3603 - 3. September 2015 - 13:24 #

Hier hast du noch einen du hast ja wirklich Hunger heute...

><((((*>

Spiritogre 18 Doppel-Voter - 11995 - 3. September 2015 - 13:40 #

Tja, ich wechsel lustig die Grafikkartenfirmen durch und habe weitaus häufiger Probleme mit NVidia Karten, insbesondere mit deren Treibern.

Eine ist mir sogar mal abgeraucht, natürlich direkt nach Ende der Garantie. Nachfrage hat ergeben, dass die erste Generation dieser Chips einen Produktionsfehler hatte, wenn es im Sommer heiß wird oder der Lüfter ein wenig eingestaubt und nicht mehr so gut Luft wegbringt, dann war es das.

Mit AMD Karten hatte ich nie solche Probleme, dafür quasi immer das bessere Preis / Leistungsverhältnis. Und auch die Treiber liefen bei mir immer problemlos. Keine Ahnung was manche Leute mit ihren Systemen anstellen, dass sie da angeblich immer Probleme haben.

PS: Derzeit habe ich in einem Rechner eine Radeon, in einem anderen eine GeForce und im dritten sogar eine Intel HD. Ich bin da also wirklich nicht festgelegt sondern kaufe ausschließlich nach Preis / Leistung.

Palladium 10 Kommunikator - 351 - 5. September 2015 - 12:26 #

Eben, wen interessiert das denn wirklich, ob AMD, oder Nvidia!? Ich kaufe immer das, was gerade die beste Leistung zum besten Preis hat.
Oder meinetwegen die beste Leistung, wenn Geld gerade nicht wichtig ist.

Toxe 21 Motivator - P - 29979 - 3. September 2015 - 13:18 #

Du weisst aber, daß in Deiner innig geliebten PS4 auch eine AMD GPU sitzt, oder?

Fischwaage 17 Shapeshifter - 6765 - 3. September 2015 - 13:22 #

Ja, leider. Aber die wurde von Sony so stark überarbeitet das es annehmbar ist und funktioniert. In der One ist ja auch eine AMD und da sieht man dann wie es eigentlich um die Karten bestellt ist wenn man nicht den Aufwand betreibt gehörig nachzubessern.

Sven Gellersen Community-Moderator - P - 24225 - 3. September 2015 - 13:23 #

Heilige Scheiße, Du bist ja wirklich so leicht vorhersehbar.

D43 15 Kenner - 3603 - 3. September 2015 - 13:26 #

Kann man seine posts nicht einfach ausblenden?

Thomas Barth 21 Motivator - 27682 - 3. September 2015 - 13:27 #

Doch klar, geht für alle Abonennten. Würden das alle konsequent machen, kann der scheiße labern soviel wie er will.

D43 15 Kenner - 3603 - 3. September 2015 - 13:48 #

Wo finde ich die Option? Ich Ertrage sein getrolle nicht mehr...

Thomas Barth 21 Motivator - 27682 - 3. September 2015 - 13:51 #

Du klickst rechts oben auf deinen Namen und hast unter Kontakt den Menüpunkt "Abo-Exklusiv: User ausblenden". Ist wirklich sehr viel angenehmer, wenn man Unruhestifter einfach ausblenden kann.

D43 15 Kenner - 3603 - 3. September 2015 - 14:08 #

Danke :)

Fischwaage 17 Shapeshifter - 6765 - 3. September 2015 - 13:55 #

Wieder einer der die Augen zu macht und wegsieht :-(

D43 15 Kenner - 3603 - 3. September 2015 - 14:07 #

Einen bekommst du noch bevor ich dich aussperre...

><((((*>

rammmses 18 Doppel-Voter - P - 12858 - 3. September 2015 - 14:09 #

Der ist gut^^

Dennis Ziesecke Freier Redakteur - P - 29752 - 3. September 2015 - 14:51 #

Genau, Sony war so weitsichtig, weitere Grafikcores von, ja huch, AMD zu verbauen. Um aus einem für Officesysteme gedachten Chip etwas für Gamer zu basteln. Das geht also offenbar im Konsolenbereich genauso wie beim PC, man kombiniert einfach sinnvoll Komponenten.

Sven Gellersen Community-Moderator - P - 24225 - 3. September 2015 - 13:22 #

Da haben selbstverständlich die krassen Leute von Sony ein Auge drüber gehabt, damit in der Konsole auch ja was Vernünftiges von AMD steckt! Und weil die krassen Leute so unzufrieden waren, haben sie kurzerhand die GPU selbst nochmal neu entwickelt. Jetzt steht nur noch "AMD" drauf!

Denis Michel Freier Redakteur - 146613 - 3. September 2015 - 13:29 #

Kudos :p

Punisher 19 Megatalent - P - 15808 - 3. September 2015 - 14:24 #

Also ich hab gehört, die haben kleine, indonesische Kinder (wegen der kleineren Finger und so) oder Nanobots dazu eingesetzt, die GPU zu zerlegen, neue Widerstände einzulöten und dann wieder zu verschliessen, so dass man NICHTS davon sieht - so wird die GPU stabiler und Leistungsfähiger alles andere was die welt jemals gesehen hat.

So ich geh jetzt dank der Anleitung oben den Herren auch ausblenden, das verblendete Gelaber ist echt nicht mehr zu ertragen.

Sven Gellersen Community-Moderator - P - 24225 - 3. September 2015 - 18:12 #

Der Segen normaler User!

Dennis Ziesecke Freier Redakteur - P - 29752 - 3. September 2015 - 14:49 #

Wenn man eine AMD-Officekarte mit kleinem Lüfter kauft ist man halt selbst schuld. Wer sich vor dem Kauf aber etwas informiert dann bekommt man sogar schnelle und leise AMD-Karten. Habs ausprobiert, mehrfach. Und Abstürze, ja, die gabs auch mit AMD im Rechner. Aber nicht öfter als mit der 750 Ti von Nvidia gerade. Bei der ab und an auch mal der Treiber abschmiert.

D43 15 Kenner - 3603 - 3. September 2015 - 14:54 #

Ich hatte auch AMD sowie nvidea und es gab immer mal Höhen und Tiefen aber nur eine einzige Karte ist mir in 20 Jahren verreckt und das war eine gtx 670 ( nach 1 1/2) Jahren :(

Crizzo 18 Doppel-Voter - 11201 - 2. September 2015 - 23:10 #

GPGPU wofür steht das?

floppi 22 AAA-Gamer - P - 34202 - 2. September 2015 - 23:12 #

Habe das eben ausgebessert, hielt es für einen Schreibfehler. Sollte das nicht so sein, mea culpa.

Hedeltrollo 17 Shapeshifter - P - 8838 - 3. September 2015 - 0:18 #

Ne, jetzt reichts. Umgehend Deabo! Bald!

Denis Michel Freier Redakteur - 146613 - 2. September 2015 - 23:13 #

https://en.wikipedia.org/wiki/General-purpose_computing_on_graphics_processing_units

Toxe 21 Motivator - P - 29979 - 2. September 2015 - 23:15 #

"General Purpose computations on GPUs." Dabei verwendet man Grafik-Chips, um darauf ganz allgemein Programme laufen zu lassen, statt diese nur für Spiele zu verwenden, und sich dabei die Power der GPUs zu Nutze zu machen.

ADbar 13 Koop-Gamer - P - 1660 - 2. September 2015 - 23:25 #

Hab eben fälschlicherweise gelesen:
"... , und sich dabei die Power der GPUs zur Nutte zu machen."

Sorry. ^^

Wollte es gerade bemängeln und bemerkte noch rechtzeitig, dass der Fehler meinen Augen, oder Schlimmerem(Freud???), anzuhaften ist.

Toxe 21 Motivator - P - 29979 - 3. September 2015 - 12:04 #

Fangen wir besser nicht an, hier irgendwas hineinzuinterpretieren. ;-)

EvilNobody 14 Komm-Experte - 1846 - 4. September 2015 - 2:55 #

Passt doch: die GPU ist meine kleine Nutte, die meine visuellen Gelüste befriedigt. ^^

smashIt 11 Forenversteher - 556 - 2. September 2015 - 23:22 #

nvidia wird mit gameworks schon dafür sorgen, dass auf AMD-karten auch keine asynchronous shader laufen...

Tomate79 16 Übertalent - P - 4941 - 2. September 2015 - 23:53 #

Zwar laufen die aktuellen Konsolen mit AMD und man könnte meinen, dass die Entwicklung von der Leadplattform auf den PC übertragen wird, das hindert leider nicht auf dem PC dieses bescheuerte Exklusiv-Feature Gameworks draufzudrücken, siehe Witcher3.
Aber Gameworks kann nicht verhindern, dass AMD seine volle DX12-Unterstützung verliert ;0)

Tassadar 17 Shapeshifter - 7787 - 2. September 2015 - 23:57 #

"Aber Gameworks kann nicht verhindern, dass AMD seine volle DX12-Unterstützung verliert ;0)"

Verliert?

Jadiger 16 Übertalent - 5331 - 3. September 2015 - 1:50 #

Ist ja immer die Konkurrenz schuld MGS 5 hat zwar kein Gameworks eine GTX770 schlägt aber eine 380(290). Würde das Spiel irgend ein Gameworks Feature haben würde bestimmt jeder behaupten es liegt daran.

Aber wenn ein Entwickler der den Star Swarm Benchmark gemacht hat der reine Mantel Pr war sagt das ist so dann ist das natürlich so. Weil AMD macht doch keine falsche Pr und macht auch keine Fehler, die schlechte Leistung liegt immer an Nvidia nie an AMD. Wie könnte man auch nur überhaupt darüber Nachdenken das es ein AMD unterstütztes Studio Partei ergreift. Was sie zur Mantel einführung schon mal gemacht haben dort wurde behauptet das man nur die Leistung erreichen könne wegen Mantel. Nur hat Nvidia das gleiche geschafft ohne API und selbst im aktuellen Benchmark ist die 980ti ungeschlagen.

Die überschrift des Artikels beschreibt etwas völlig falsches den AMD unterstütz ledig DX12.0 während Maxwell DX12.1 unterstützt also wem fehlt etwas. Dazu wurde der Benchmark im CPU limit gemacht und nicht im Gpu limit was überhaupt keine Aussage Kraft hat, den so gut wie alles läuft heute im GPU limit. Grafikkarten Benchmarks finden immer im GPU limit statt aber da man überhaupt einen unterschied sehen soll macht man DX12 im Cpu limit.
Katastrophal wäre wenn eine GTX770 eine 290 schlägt in einem Spiel was wir aktuell wieder sehen können in MGS5 im GPU limit.
Da es nicht ein DX12 Spiel gibt sondern einen Brandet Benchmark im CPU limit kann man überhaupt noch keine Schlussfolgerungen ziehen. Selbst in dem Benchmark zieht AMD weder davon noch sonst etwas, es ist nur eine Steigerung zum schlechten DX11 wert. War bestimmt Gameworks schuld, oh warte mal es gab ja keines in einem AMD brandet Benchmark. Den AMD schließt laut dem Benchmark lediglich auf und Nvidia verliert sogar wenige Prozent, trotzdem erreichen die NV Karten die sehr guten Werten schon unter DX11 wo gegen AMD katastrophal abschneidet.

Denis Michel Freier Redakteur - 146613 - 3. September 2015 - 3:36 #

„Die überschrift des Artikels beschreibt etwas völlig falsches“
Die beschreibt genau das, worum es in der News geht. ;)

„AMD unterstütz ledig DX12.0 während Maxwell DX12.1 unterstützt also wem fehlt etwas.“
Was hat bitte das mit dem Thema zu tun? Dass Nvidia DX12.1 unterstützt hat doch niemand bestritten. Nicht mal der Mitarbeiter von Oxide Games, er selbst sagt, dass man daraus keine voreilige Schlüsse ziehen und abwarten sollte. Es ändert nichts daran, dass er meint, dass Maxwell-Karten trotz DX12.1-Support keine asynchrone Shader unterstützt.

Jadiger 16 Übertalent - 5331 - 3. September 2015 - 10:10 #

Es ging um die Überschrift die etwas andeutet was ersten nicht stimmt zweitens sogar anderes rum ist.
Der Orginal Post des Entwicklers der Nvidia Shader als Katastrophal darstellte und noch auf Kollegen aussagen aufbaute um den ging das Statement.
Maxwell Karten unterstützen asynchrone Shader das es nicht unterstütz wird ist nur eine Aussage des Entwickler Teams und AMDs Pr! Die auf die Wudnersame Leistungs Erhöhung unter DX12 Aufbaut trotzdem ist die 980ti ungeschlagen und trotzdem kann AMD lediglich in ihren eigenen Bechmark aufschließen. Was unter DX11 überhaupt nicht in frage kam. GPU Benchmark im CPU limit ist sowieso ein Fall für sich.

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 3. September 2015 - 11:31 #

Naja, mal ganz simpel gefragt - wer soll es denn sonst testen und feststellen können wenn nicht Entwickler, die diese Funktion brauchen? Ganz ehrlich, du klingst teilweise wie ein Fanboy, auch wenn ich sowas nur ungern sage..

Tassadar 17 Shapeshifter - 7787 - 3. September 2015 - 23:34 #

Teilweise? Teilweise ist gut. Das klingt exakt nach einem Fanboy. Die negativen Dinge alle ignorieren oder kleinreden, die positiven großreden. Das hat mit sachlicher Sichtweise nichts zu tun.

Denis Michel Freier Redakteur - 146613 - 3. September 2015 - 11:57 #

„Maxwell Karten unterstützen asynchrone Shader das es nicht unterstütz wird ist nur eine Aussage des Entwickler Teams und AMDs Pr! “
Du solltest mal den Original-Artikel auch lesen...

Zitat: As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that.

Die Aussage stammte von dem Oxide-Games-Mitarbeiter. AMD-PR hat da nix mit am Hut. Genaugenommen hat AMD ein Vertrag mit Oxide für das besagte Spiel abgeschlossen und sie hatten trotzdem nichts dagegen, dass das Studio nebenbei noch mit Nvidia arbeitet. Nvidia hat (seiner Aussage nach) behauptet, das die Geforce-Karten die asynchrone Shader unterstützen würden und das tun sie auch, aber nur über den Treiber, was, wie der Oxide-Typ schreibt, katastrophale Ergebnisse lieferte. AMD-Karten liefern es Hardwareseitig, was am Ende den Unterschied ausmacht. Wie er schon in seinem Post sagt, sein Spiel ist kein Musterbeispiel für ein DX12-Spiel, man sollte daher KEINE FRÜHEN SCHLÜSSE ziehen. Genaues wissen wir erst, wenn die ersten DX12-Spiele auf dem Markt sind und mehrere aussagekräftige Benchmarks vorliegen.

Jadiger 16 Übertalent - 5331 - 3. September 2015 - 15:28 #

Das stimmt so nicht selbst die Nv Treiber läuft besser als auf AMD Karten.
Kannst ja selbst testen mit dem Tool falls du eine AMD und Nv Karte hast.
Oder lies es im Forum eine GTX980ti hat deutliche bessere Latenzen und der Benchmark bevorteilt diesmal keinen.
Außerdem ist realtiv egal weil so gut wie nichts im CPU limit läuft erst recht keine Spiele. Der Flaschenhals in Spielen ist die GPU und mit steigernder Auflösung wird sich das kaum ändern. Dazu kommt das Nvidia Karten so einige DX12 Funktionen unterstützen die AMD nicht mal emulieren kann. Maxwell 2.0 ist besser Gerüstet für die Zukunft als aktuelle AMD Karten.

Wer aber wirklich schneller wird können wir erst sehen wenn es wirkliche Spiele gibt das haben wir ja beide gesagt. Ich glaub aber nicht daran das AMD wirklich gleichziehen wird im GPU limit. CGN ist viel zu sehr auf Optimierung angewiesen und AMD spart am Treiber Support. Die ersten DX12 Spiele kommen aber erst in vielleicht 2 Jahren. Den die meisten werden immer noch auf DX11 setzen und das wird sich nciht so schnell ändern.
Vielleicht ergeht es auch Dx12 wie DX11.1 und DX11.2 gibt ja genung die wollen nicht auf Win10 umsteigen und wenn das viele machen wird dann weist ja was passiert. Den ein Leistungs boost von 20% bei Bf4 erreicht schon Win8 mit DX11.1 was aber für viele kein Grund war umzusteigen. So war Bf4 das einzige Spiel für DX11.1 und DX11.2 wurde gar nichts raus gebracht.

Hier noch der link zum besagten Forum mit tool usw.
https://forum.beyond3d.com/threads/dx12-async-compute-latency-thread.57188/page-5#post-1868395

Denis Michel Freier Redakteur - 146613 - 3. September 2015 - 17:08 #

Ob es stimmt oder nicht, kann gerade weder der Oxide-Mitarbeiter, noch Du oder die beiden Hersteller sagen, weil es einfach aktuell keine DX12-Spiele gibt, die auf Engines basieren, die für asynchrone Shader optimiert wurden. Das was du da zeigst ist zwar sehr schön, aber nicht repräsentativ. Genau so wenig wie das Spiel von Oxide-Games, wie der Entwickler auch selbst einräumt. Diese Diskussion ob Nvidia nun besser ist oder AMD ist gerade ziemlich sinnfrei. :)

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 3. September 2015 - 8:10 #

Ich müsste jetzt nachgucken, aber es gibt durchaus den einen oder anderen Fall, wo Spiele mit Nvidia Gameworks bei AMD Karten Sachen berechnen lassen, die nicht notwendig sind (es waren glaube ich Texturen, die sich nicht im Sichtbereich befinden, müsste aber wie gesagt das ganze nochmal raussuchen) und daher die Performance bei AMD Karten runterging.

Jadiger 16 Übertalent - 5331 - 3. September 2015 - 10:48 #

Dann such mal raus es gibt kein einziges Spiel wo irgend etwas belegt wurde das Gameworks für die schlechte AMD Leistung zuständig war oder ist. Es gibt aber sehr wohl Beispiele wo AMD höchst Persönlich behauptet hat Gameworks sein schuld wie Projekt Cars wo man einwandfrei selbst Nachprüfen kann wie Projekt Cars ohne Gameworks lief am Anfang der Entwicklung und später. Die Aussage war von AMD das plötzlich 3 Monate vor release Gameworks kam und es nicht mehr lief nur lief es nie wirklich auf AMD Karten siehe PCGH benchmarks der alten Builds.
Dazu läuft Projekt Cars unter Win 10 was in Dx11 Verbesserungen hat deutlich besser auf AMD Karten was hat sich geändert? Nicht Gameworks aber die Treiber von AMD und DX11 das ist eben der Punkt AMD hat keine guten DX11 Treiber.

AMD befindet sich auf einen Abwärts kurs den sie aus eigener Kraft nicht mehr stoppen werden. Die neue Gen hat überhaupt keine Auswirkungen gehabt auf AMDs Talfahrt und umso schlechter es ihnen geht umso mehr dreschen sie auf die Konkurrenz ein. AMD hat schon immer gegen Nvidia gewettert egal ob es der Tegra bereich war oder GPU oder sonst was. Inzwischen was laut AMD ein großer Fehler war im SoC Bereich tätig zu werden ist Nvidia extrem erfolgreich Tegra stecken in sehr vielen Geräten die Leistungsfähige Socs brauchen wie Autos. AMD hat in den letzen Jahren sehr viele Fehler gemacht und würden nicht so viele AMD mit alten Zeiten verbinden würde die Ansichten anders Ausfallen. AMD gilt zum Beispiel immer als viel Preiswerter was überhaupt nicht stimmt meine 290 hat 460 Euro gekostet zum lunch das ist nicht billig. Wenn AMD die Preise verlangen kann machen sie es auch, wenn aber eine GTX970 für 360 auftaucht die schneller ist muss sie natürlich billiger sein. Man sollte sich hier fragen wer eigentlich den Preis gedrückt hat AMD oder Nvidia? Nv hätte ohne weiteres sich kurz über der 290 setzen können dann hätte AMD nicht den Preis gesenkt. Bessers Produkt bestimmt eben Marktwert.

Dennis Ziesecke Freier Redakteur - P - 29752 - 3. September 2015 - 12:19 #

Dann nenne mir doch einmal fünf aktuelle Tegra-Geräte bekannter Hersteller. Vor allem der aktuelle Tegra wird fast nirgends eingesetzt..

Jadiger 16 Übertalent - 5331 - 3. September 2015 - 15:32 #

Ganz einfach AUDI usw.

http://www.elektroniknet.de/halbleiter/prozessoren/artikel/104387/

Den Rest kannst der selbst suchen wenn du was wissen willst dürfte nicht schwer sein.

Dennis Ziesecke Freier Redakteur - P - 29752 - 3. September 2015 - 16:01 #

Doch, ist schwer. Von ein paar Autoherstellern (ohne wirklich finale Verkaufserfolge) abgesehen nutzt nämlich kaum noch jemand Tegra. Schon Tegra 4 war bei Tabletherstellern unbeliebt weil das Ding zu heiß wird und zu viel Energie frisst. Das ist beim Tegra nicht anders sondern sogar so schlimm, dass es so gut wie keine Geräte zu kaufen gibt. Tegra ist aktuell ein sensationeller Flop.

Simon b 08 Versteher - 223 - 3. September 2015 - 12:16 #

Unabhängig davon, ob das nun stimmt oder nicht, warum wird die Schuld hier immer bei NVidia gesucht?
Entscheided Nvidia, was in ein Spiel kommt und was nicht oder ist Nvidia gar verantwortlich für die Qualitätssicherung bei den Spieleentwicklern? Wenn der Entwickler ein von Nvidia angebotenes Feature einbaut und danach draufkommt, dass das Spiel auf AMD Karten nicht mehr vernünftig läuft, es aber denoch so auf den Markt gibt, ist das dann auch nvidias schuld?

Nvidia bietet mit Gameworks ein Feature an, dass Entwickler nutzen können oder auch nicht. Dass Nvidia dieses Feature nicht großartig auf Konkurenzprodukte optimieren wird, ist doch eigentlich Einleuchtend und sollte wohl jedem klar sein. Das wäre aus Betriebswirtschaftlicher sicht doch nicht logisch, will man doch damit einen Wettbewerbsvorteil erzielen und nicht zusätzlichen Aufwand betreiben um AMD Besitzer glücklich zu machen.

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 3. September 2015 - 13:22 #

Hast du den Artikel nicht gelesen? Es geht schlicht darum, dass Nvidia ein Feature bewirbt, von dem sich nun herausstellt, dass sie dies anscheinend gar nicht liefern können. Wer, wenn nicht Nvidia, sollte sonst dafür verantwortlich sein?

Oder sagst du nach dem Autokauf auch, dass du das extra beworbene, aber bei Kauf nicht vorhandene Navigationssystem eigentlich gar nicht brauchst und sich daher alle anderen (die das beworbene Navigationssystem nutzen wollen) gefälligst nicht so aufregen sollen?

Davon mal abgesehen kann keiner von uns sagen, ob Entwickler so etwas wie Gameworks oder TressFX freiwillig nutzen. Vielleicht sind sie toll, vielleicht locken aber von AMD oder Nvidia zusätzliche Manpower oder gar Geld, wenn sie deren Tools nutzen, vielleicht auch weil sie schon Erfahrung mit dem System haben. Das weiß wie gesagt niemand von uns.
Aus Betriebswirtschaftlicher Sicht logisch wäre es dann meiner Ansicht nach eher, auf Gameworks oder TressFX ganz zu verzichten und das Spiel stattdessen mit Features auszustatten, die beide Karten bedienen können (solange es kein übergreifendes Framework gibt und z.B. die Physik vereinheitlicht). Dann hat man nämlich eine größere potentielle Käuferschicht.

Simon b 08 Versteher - 223 - 3. September 2015 - 14:06 #

Logischerweise bezog ich mich auf den Comment über mir, weswegen ich ja auch auf genau diesen geantwortet habe. Zu dem Thema des Topics hab ich also keine Stellung bezogen und ich weiß daher nicht warum du es hier anbringst.

Wenn von Nvidia oder wem auch immer Geld und Manpower angeboten wird, ist es aber immer noch sache des Entwicklers, ob sie das auch annehmen. Es wird also nach wie vor niemand zu irgend etwas gezwungen.

Übrigens sprach ich aus Betriebswirtschaftlicher sicht seitens Nvidia. Natürlich werden die nicht Gameworks effekte auf AMD Grafikkarten optimieren, da es mehr Arbeit für sie machen würde und gleichzeitig ein Konkurenzprodukt aufwerten. Und das sollte doch wohl auch jedem bewusst sein und somit sollte das auch jedem Spieleentwickler klar sein.

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 3. September 2015 - 14:23 #

Ah, verdammt, hast recht, mein Fehler, sorry! Ich hatte (warum auch immer o_O) gedacht, du beziehst dich auf das Topic.

Als Grundlage für meine Zuweisung habe ich unter anderem diesen (sehr langen) Artikel (http://wccftech.com/exclusive-nvidias-amds-perspectives-gameworks-bottom-issue/) über die Unterschiede zwischen beiden Architekturen gelesen.

PraetorCreech 15 Kenner - P - 3864 - 3. September 2015 - 15:06 #

Ich finde, man kann ruhig beide schief ansehen. Ich muss die Schuld nicht bei nVidia suchen, wirtschaftlich gesehen scheinen Gameworks und Cuda ja was zu bringen, aber ich muss das nicht unterstützen. OpenCL und HSA empfinde ich als interessanter, alleine schon weil sie viel offener sind. Und besonders aggressive Nutzung von Cuda oder Gameworks bestrafe ich dann halt mit dem Geldbeutel. Ich habe meine (bald wieder aktuelle) Hardware, und was nicht gescheit drauf läuft hat Pech gehabt. Ich werde nicht "das Lager wechseln" um ein paar Spielen zu gefallen.

Simon b 08 Versteher - 223 - 3. September 2015 - 15:19 #

Ich sehe das ehrlich gesagt nicht so eng. Mit meiner HD 7850 profitiere ich schließlich auch nicht von den Gameworks Effekten. Trotzdem macht mir ein Witcher 3 Spaß und Leute mit der passenden Hardware profitieren dann halt davon. Natürlich kann man das auch alles selber und unabhängig von der genutzen Hardware programmieren. Dass ist dann halt immer eine Frage des Aufwandes. Nvidia scheint hier den Entwicklern schon einiges an Arbeit abzunehmen. Die Alternative wäre dann wohl gar keine Gameworks effekte für niemanden.

PraetorCreech 15 Kenner - P - 3864 - 3. September 2015 - 16:15 #

Oh, nicht falsch verstehen, wenn es nur um Zusatzeffekte geht, dann macht mir das auch absolut nix. Wenn ein Spiel aber nur auf AMD Hardware Performanceprobleme hat, dann kaufe ich es nicht oder nur arg vergünstigt, so dass ich nicht zu viel Geld für meinen Ärger ausgebe. Ob ich jetzt irgendwelche Physix-Spielereien verpasse ist mir ralle.

Jadiger 16 Übertalent - 5331 - 3. September 2015 - 15:44 #

Gameworks ist eine ganz normale Bibliothek und die meisten dieser Effekte gibt es nicht mal auf AMD Karten. Wenn es dann doch eines gibt wie Hairworks in Witcher 3 ist es nicht Nv schuld wenn AMD KArten keine gute Tessellation Leistung haben. Der Entwickler hätte einfach einen Schieberegel einführen sollen wie es auch später war. AMD behauptet aber das sei Pure absicht natürlich von Nvidia nicht vom Entwickler. Bei gleichen Grad Leistet trotzdem eine Nv Karte mehr aber da muss AMD sich ersten überhaupt nicht beschweren weil wer würde sein eigens Produkt ja auf die Konkurrenz anpassen.
Da AMD ja nicht bereit ist Million in die Entwicklung solcher Funktionen zu investieren finde ich es ganz schön frech den Quellcode von Gameworks zu verlangen. Selbst aber mit Mantel das ja open Angekündigt war erst raus geben haben als es praktisch abgesägt wurde.

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 3. September 2015 - 15:57 #

Das Problem bei Closed Source wie Gameworks ist aber, dass niemand ausser Nvidia weiß, wie es im Hintergrund arbeitet. Jetzt mal ganz abwägig, aber - wer würde sie davon abhalten oder es herausfinden können, wenn ein Spiel mit Gameworks zu Beginn deine Grafikkarte testet und wenn Hardware=AMD ist ein paar Parameter geändert werden?
Technisch ist das zumindest kein Problem.

Das ist das blöde an Closed Source Software generell.

Tassadar 17 Shapeshifter - 7787 - 3. September 2015 - 0:02 #

Ach, da gab's sicher wieder nur ein internes Kommunkationsproblem, so dass die technischen Spezifikationen falsch an die Presse weitergegeben wurden und außerdem wirkt sich das sowieso kaum auf die Performance aus, das merken die Spieler eh nicht. *hier beliebige "speziell" ausgewählte Benchmarks einfügen, die genau das "beweisen"*

Nach dem Debakel mit dem Speicherbetrug der GTX970 und dem miserablen Umgang von NVIDIA damit, wäre das jetzt der endgültige Sargnagel aus meiner Sicht, sollte sich das als korrekt erweisen. Meine nächste Karte wird dann auf jeden Fall AMD.

ReD_AvEnGeR 12 Trollwächter - P - 1101 - 3. September 2015 - 7:38 #

bin auch auf der suche nach ner neuen grafikkarte.
Ich hätte ja gerne mal eine ATI Karte, aber mangels brauchbarer Linux Treiber ist das für mich keine Option !
Hoffentlich wird die nächste Geforce Generation besser... ich glaub es aber irgendwie nicht.

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 3. September 2015 - 8:12 #

Die Entscheidung samt CPU steht bei mir für nächstes Jahr an. Ich hoffe z.B. sehr, dass AMD mit Zen etwas gutes auf den Markt wirft, so dass wieder Konkurrenz entstehen kann.

Spiritogre 18 Doppel-Voter - 11995 - 3. September 2015 - 14:20 #

Der neue Linux Kernel soll doch Unterstützung für AMD Karten bieten, sowohl für "eigene" Treiber als auch die Herstellertreiber.

PraetorCreech 15 Kenner - P - 3864 - 3. September 2015 - 16:21 #

Warte mal auf Fedora 23. Ich habe auf Fedora 22 den fertigen 4.2er Kernel installiert um irgendwie eine rudimentäre Unterstützung für meine R9 380 zu bekommen, ohne neue Mesa-Version ist es aber natürlich ziemlich vergeben.
So oder so, die neue Strategie von AMD im Linuxsektor ist spannend. Ich weiß nicht wohin sie führt und ob sie eine Verbesserung mit sich bringt, aber die Chancen stehen besser als bei nVidia, denn die fahren ihre Linuxunterstützung ja gerade zurück.

PraetorCreech 15 Kenner - P - 3864 - 3. September 2015 - 8:25 #

Wieso hält sich die 970 so lange im Kopf der Nutzer? Diese Art des Speichermanagements hat bei nVidia Tradition. Und nach der 660ti krähte schon nach wenigen Wochen kein Hahn mehr. Und da war die Ratio 1,5:0,5 GB noch viel heftiger.
http://www.tomshardware.co.uk/forum/284003-29-660ti-essentially

ReD_AvEnGeR 12 Trollwächter - P - 1101 - 3. September 2015 - 8:49 #

naja is halt Betrug. Ich kann doch net einfach irgendwelche Zahlen addieren um mein Produkt besser darzustellen als es ist. Warum sollte man das vergessen ? Der Schrott wird doch immer noch so verkauft/beworben.

PraetorCreech 15 Kenner - P - 3864 - 3. September 2015 - 8:54 #

Stimmt, Du hast mit jedem Wort recht, aber es ist ein alter Schuh, mit dem nVidia in der Vergangenheit immer durchgekommen ist. Warum sollte sich was ändern? Und vor allem, warum hält es sich ausgerechnet dieses Mal so gut im Gedächtnis der Spieler?

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 3. September 2015 - 9:01 #

Vielleicht lernt die Spielerschaft diesmal langsam und hält es deswegen hoch, um auch ja alle zu warnen.. man wird ja noch hoffen dürfen ;)

PraetorCreech 15 Kenner - P - 3864 - 3. September 2015 - 9:04 #

Du Romantiker ;)

CBR 20 Gold-Gamer - P - 20941 - 3. September 2015 - 14:37 #

Ich denke immer daran, weil ich 4GB brauchen werde - u.a. für Star Citizen. Wegen der Preis-Leistung wollte ich eine 970 und lasse es jetzt bleiben.

Drugh 15 Kenner - P - 3053 - 3. September 2015 - 20:57 #

Läuft prima mit 970.

Thomas Barth 21 Motivator - 27682 - 3. September 2015 - 8:55 #

An diesen Betrug denke sogar ich immer wenn ich Nvidia lese, obwohl ich nichtmal einen Gaming-PC besitze.

Kirkegard 19 Megatalent - 15792 - 3. September 2015 - 9:17 #

Weichei!

ghurt (unregistriert) 3. September 2015 - 3:54 #

scalibq.wordpress.com/2015/09/02/directx-12-is-out-lets-review/
besonders vorvorletzter Absatz

yankman 14 Komm-Experte - P - 2375 - 3. September 2015 - 7:42 #

Also, ich hab mich mal belesen und NVidia-Karten unterstützen sehr wohl "Async Shaders". Allerdings nicht direkt in Hardware sondern in Software. (Ich vermute mal nur um Standards zu erfüllen)
Damit ist die Performance des Features im Vergleich zu AMD GCN-Karten so schlecht, dass es für Spiele eigentlich nicht nutzbar ist.

Am Ende bleibt das Problem bei den Softwareentwicklern hängen, die u.U. für NVidia-Karten das Rendering anpassen müssen, um dieses Feature nicht verwenden zu müssen.

Hermann Nasenweier 15 Kenner - P - 3073 - 3. September 2015 - 8:40 #

Das erinnert mich gerade an die Kyro2. Die hatte auch irgendein Feature dann nur als SW Emulation drin (glaube T&L) um damit offiziell die DirectX Features zu unterstuetzen.

Sind halt immer diese PR Tricks um die eigenen Sachen besser darstehen zu lassen. Aber ich bezweifle dass AMD da irgendwie besser ist. Am Ende muss man halt abwarten wie sich das auswirkt. Im Zweifelsfall werden die Spiele auch ohne dieses Feature gut genug aussehen.

Wobei NVidia es grade gut schafft sich als unglaubwuerdig darzustellen, immerhin wurde ja die 12.1 Faehigkeit ja doch deutlich hervorgehoben. Nach dem Debakel mit dem Speicher, waere es sicherlich besser gewesen da mal etwas genauer zu sein.

yankman 14 Komm-Experte - P - 2375 - 3. September 2015 - 9:00 #

Tjo, eigentlich habe ich NVidia bis jetzt immer den Heizkraftwerken vom AMD vorgezogen ... aber so langsam vergallopieren sie sich.

Dennis Ziesecke Freier Redakteur - P - 29752 - 3. September 2015 - 9:59 #

Zumal AMD mit der Fury-Reihe durchaus beweist auch energieeffizient arbeiten zu können. Bin gespannt auf die Nano (auch wenn sie teuer wird).

Spiritogre 18 Doppel-Voter - 11995 - 3. September 2015 - 14:25 #

Das mit dem Stromverbrauch wird eh überbewertet. Die aktuellen Karten, auch von AMD, benötigen weniger Saft als eine alte PS3.

Davon ab ist der Unterschied zwischen AMD und NVidia im reinen Desktop Betrieb quasi nicht vorhanden. Nur direkt beim Spielen schlucken die AMD Karten mehr. Damit sich das bei der Stromrechnung bemerkbar macht muss man also schon wirklich täglich ein paar Stündchen zochen. Wenn man dann als Ausgleich ein, zwei Mal im Jahr den Geschirrspüler nicht nutzt hat sich das aber auch wieder erledigt.

yankman 14 Komm-Experte - P - 2375 - 3. September 2015 - 14:32 #

Es geht eigentlich weniger um Stromkosten als um enstprechende Kühlung, den Lärm den das macht und das entsprechende Netzteil.

D43 15 Kenner - 3603 - 3. September 2015 - 14:56 #

Es gibt auch ordentliche custom Varianten die leise und kühl sind, denn Rest regelt der tower. Aber ja sie könnten denn Verbrauch zugunsten der Abwärme verbessern.

Dennis Ziesecke Freier Redakteur - P - 29752 - 3. September 2015 - 14:57 #

Da es eine große Anzahl leise gekühlter AMD-Karten gibt, scheint das ja nicht so das Problem zu sein. Zumindest kein unlösbares. Einen schlechten Ruf haben AMD-Karten in der Hinsicht allerdings eher weil AMD so grenzdebil ist, sehr oft einen penetranten Referenzlüfter zu verbauen. Erste Tests nutzen meistens Herstellerkarten mit diesem Lüfter, so dass das Fazit oft lautet: "Karte gut aber zu laut" - das bleibt hängen.

Und zum Netzteil.. Schon seit einiger Zeit reicht ein gutes 450-Watt-Netzteil auch für AMD-Gamersysteme (unsinnige Dinge wie Crossfire oder SLI mal außen vor). Wer bei einem einige Jahre alten System die Grafikkarte modernisiert, muss daher oft nicht einmal das NT tauschen. Bei Nvidia natürlich auch nicht aber das steht ja nicht zur Diskussion.

Spiritogre 18 Doppel-Voter - 11995 - 3. September 2015 - 15:07 #

Netzteil kaufe ich ohnehin passend, wenn ich den kompletten Rechner neu baue. Inzwischen auch nur noch mind. Gold zertifiziert.

Die Sapphire Radeon 380 Nitro die ich mir jetzt gegönnt habe ist praktisch unhörbar, der Gehäuselüfter ist bei mir doppelt so laut. Davon ab drehen die Lüfter der Grafikkarte ohnehin bloß im Spielebetrieb.

Die Sapphire Karten mit Vapor-X Kühlsystem gelten als mit die leisesten am Markt.

PraetorCreech 15 Kenner - P - 3864 - 3. September 2015 - 8:51 #

Ja, sie haben die Shader, schon lange. Es geht jetzt aber darum, dass zwei verschiedene Sorten von Shadern nicht gleichzeitig genutzt werden können, wie es DX12 eigentlich möchte. Per Software Workaround lässt sich das schon hinbiegen, jegliche Performanceverbesserungen, die man eigentlich erwarten würde, lösen sich dadurch aber in Luft auf.
Kein Grafikchip auf dem Markt unterstützt alle DX12 Features. Theoretisch sind die Skylake Prozessoren mit ihren Grafikeinheiten noch am weitesten, natürlich bei einer zu geringen Performance. Deswegen meckert auch niemand (außer Fanboys). Der Aufruhr kommt, weil nVidia den Umstand mal wieder verstecken wollte, und als er raus kam sollte der Entwickler das Feature aus seinem Benchmark raus nehmen. Am besten komplett, damit AMD-GPUs davon nicht profitieren.
Mies sind nicht die nVidia GPUs, mies ist das Geschäftsgebaren der Firma.

yankman 14 Komm-Experte - P - 2375 - 3. September 2015 - 9:01 #

Und die Infos bzgl. DX12 und Aync Shaders hast du woher ?

PraetorCreech 15 Kenner - P - 3864 - 3. September 2015 - 9:10 #

Die PC Games Hardware hat dazu (natürlich, ist ja ihr Kernthema) einen guten Artikel, aber auch andere Seiten wie Heise Online berichten mit recht einem recht guten Verhältnis von Vereinfachung und technischen Details ;)
Siehe: http://www.heise.de/newsticker/meldung/Async-Shaders-Fehlende-DirectX-12-Funktion-auf-Nvidia-Grafikkarten-ein-vollkommenes-Desaster-2801497.html

yankman 14 Komm-Experte - P - 2375 - 3. September 2015 - 9:34 #

Danke, das schau ich mir mal an.

Pro4you 18 Doppel-Voter - 12684 - 3. September 2015 - 7:46 #

Consoles for the Win..oder so ähnlich

BigBS 15 Kenner - 3112 - 3. September 2015 - 10:10 #

Ach, es gibt so gute Gründe, warum ich mich vor einigen Jahren von den PC´s abgewandt habe.
Für wahr, Consoles ftw...:-))

Wir tun nix, wir wollen nur spielen.

D43 15 Kenner - 3603 - 3. September 2015 - 10:14 #

Geht mir auch so, nur dank gog und meiner retail Sammlung mach ich mein Notebook noch an :)

BigBS 15 Kenner - 3112 - 3. September 2015 - 10:55 #

Noch nicht mal mehr dafür....habe zwar auch diverse Spiele auf den Plattformen, nur habe ich keine Lust mich dafür an den PC zu setzen.

D43 15 Kenner - 3603 - 3. September 2015 - 11:05 #

Kann ich schon verstehen.
Gamepad, TV und Couch ist einfach viel entspannter als Schreibtisch,Stuhl,Monitor,Maus und Tastatur :)

Thomas Barth 21 Motivator - 27682 - 3. September 2015 - 11:43 #

Ich hatte gerade darüber nachgedacht mir einen Gaming-PC zuzulegen, aber dann kommt wieder mal Nvidia und ich verwerfen alle Gedanken.

ShaftShambler 14 Komm-Experte - 1804 - 3. September 2015 - 18:03 #

Na machs doch wie gefühlt 90% im Internet und kaufe AMD.

BigBS 15 Kenner - 3112 - 3. September 2015 - 11:46 #

Das ist noch nicht mal das Argument.
Ich hatte einfach keine Lust mehr, vor jedem Spielekauf zu schauen ob das entsprechende Spiel überhaupt bei mir läuft. Und wenn ja, wie gut und flüssig.
DAS ist für mich der grösste Grund warum ich zu den Konsolen gewechselt bin.

Und dabei hatte ich früher so gerne an Rechnern rumgeschraubt, auch von Berufswegen. Mittlerweile bin ich allerdings auch aus dem Beruf raus, und hab auch keine Lust mehr dazu.

Man wird alt.^^

D43 15 Kenner - 3603 - 3. September 2015 - 12:18 #

Hätte sich der PC nicht zu dem entwickelt was er heute ist würde ich auch noch gerne daran rumschrauben, also so ist das vergebene Mühe.

Despair 16 Übertalent - 4872 - 3. September 2015 - 12:56 #

Dann bleibt immer noch die "Krieg' ich auf meiner Konsole 30 oder 60 fps?"-Frage...^^

D43 15 Kenner - 3603 - 3. September 2015 - 13:18 #

Die stellt sich zumindest mir nicht.
Ist mir nämlich egal, Hauptsache flüssig...

BigBS 15 Kenner - 3112 - 3. September 2015 - 13:44 #

Nö, es wird gegessen was aufn Tisch kommt. So einfach kann das Leben sein. :-)

Toxe 21 Motivator - P - 29979 - 3. September 2015 - 14:18 #

Seit ich zum Spielen auf die Konsolen gewechselt bin, fühle ich mich auch deutlich entspannter. Auf dem PC hatte ich nämlich auch zu oft bei neuen Spielen über Einstellungen und Optionen OCD'iert und das eigentliche Spiel vergessen.

Wenn ich so Sachen höre wie "Ja ich hab mir Witcher 3 gekauft aber gestern Abend erstmal laut Steam 3 Stunden damit verbracht, die besten Einstellungen zu finden, damit es möglichst hübsch aber trotzdem gut läuft. Ist auch wirklich ein tolles Spiel, besonders diese eine Quest... aber dann fing es an zu regnen und die FPS gingen wieder runter, da muss ich wohl nochmal nach schauen... und meine Grafikkarte ist auch nicht mehr die jüngste, vielleicht muss ich mit AA runtergehen..." dann denke ich mir, jepp, das ist genau ein Teil der Sachen, weswegen ich keine Lust mehr auf PCs habe.

Es gab schon mehr als einen Fall, wo ich drei Abende lang an irgendeiner Flugsimulation herumgeschraubt habe, damit sie möglichst toll und trotzdem gut läuft – nur um dann danach gar keine Lust mehr auf das eigentliche Fliegen zu haben.

Und das wirklich schlimme daran ist, daß man dann nicht mehr in Ruhe spielen kann, weil man einfach diese kleinen Probleme sieht bzw. nicht daran vorbeisehen kann, wie zB. Kantenflimmern oder ein paar Ruckler hier und dort und ähnliches. Wenn man einmal mit diesem Optimierungswahn angefangen hat, nimmt man diese Probleme wahr, ob man will oder nicht, und das lenkt total vom eigentlichen Spiel ab.

Meine Erfahrung mit Witcher 3 auf der PS4 dagegen ist: Installiert & losgespielt, läuft zu 99% super und sieht toll aus. Danke, das reicht mir.

D43 15 Kenner - 3603 - 3. September 2015 - 14:24 #

Kann ich zu 100% unterschreiben. War und ist bei mir genau so.
Weniger frickeln mehr Zeit zum spielen.

CBR 20 Gold-Gamer - P - 20941 - 3. September 2015 - 14:49 #

Auf meinem Rechner von 2008 habe ich normalerweise keine Probleme. Installieren, spielen. Seit ich Spiele mit mehreren Online-Registrierungen meide und seit GfWL tot ist, bin ich sehr glücklich. Einzig diese 3D-Spiele aus den End-90ern bedürfen ein wenig des Frickelns.

Für Konsolen müsste ich mir erst einmal einen Fernseher kaufen. Da vergeht mir schon die Lust. Die Wii hängt zwar am Monitor. Aber irgendwie gibt es da Luft nach oben.

Toxe 21 Motivator - P - 29979 - 3. September 2015 - 15:05 #

Konsolen kannst Du doch auch an (D)einen Monitor anschliessen.

D43 15 Kenner - 3603 - 3. September 2015 - 15:14 #

So sieht aus :)

ShaftShambler 14 Komm-Experte - 1804 - 3. September 2015 - 18:06 #

Der arme unterforderte Monitor ....

D43 15 Kenner - 3603 - 3. September 2015 - 18:20 #

Was ein unnötiger Text...

Noodles 22 AAA-Gamer - P - 36159 - 3. September 2015 - 14:53 #

Das ist dann aber dein persönliches Problem und nicht die Schuld des PCs. Ich spiele am PC und fummel nicht 3 Stunden in den Einstellungen rum und hab auch nicht solche Zwänge, wie du sie hattest. ;)

Ich kanns nicht mehr lesen, dass der PC im Gegensatz zur Konsole so unkomfortabel wäre. Ihr könnt ja alle an der Konsole spielen, aber dann nicht so einen Mist schreiben. PC war nie konfortabler als heute. Wird doch alles automatisch installiert, wenn man will, also Treiber und sowas. Und bei Steam installier ich ein Spiel und starte es und gut ist. Dann stell ich kurz was ein und spiele. Es ist extrem selten, dass ich Probleme mit einem Spiel hab, obwohl ich sehr viel kaufe und spiele. Das letzte Mal war Batman und da war der Port halt Mist. Ich find den PC jedenfalls sehr komfortabel. :P

D43 15 Kenner - 3603 - 3. September 2015 - 15:23 #

Glaub ich dir ja, keine Ahnung wie alt du bist aber ich spiele schon seit 20 Jahren und bin genau aus solchen Gründen ( PC frickeln, DRM, allways on und spieleclients) vor ein paar Jahren zur Konsole gewechselt ( natürlich hab ich noch einen PC aber nicht für steam ect.) und muss sagen das es noch nie so einfach und komfortabel war zu spielen.

Ich habe es geliebt an meinen Maschinen zu schrauben aber mir wurde das madig gemacht, auf der Konsole ist nun alles in super einfach und praktisch vereint. ich Spiel ne runde diablo und wechsle instant wenn ich nicht mehr mag zu einem streaming Anbieter, mit einem klick, und schau ne Serie. Und falls meine Frau was sehen mag Stream ich Serien oder spiele auf die vita...

Ich bin total glücklich das rundum sorglos Paket für 500 Euro bekommen zu haben. Ich will dir denn PC nicht madig machen aber zumindest für mich ist er von Jahr zu Jahr unattraktiver geworden. Mich ärgern die softwarehersteller der Kopierschutz die neuesten ausspäh Betriebssysteme ect pp.

Diese Probleme bin ich jetzt aufjedenfall erstmal los :)

Toxe 21 Motivator - P - 29979 - 3. September 2015 - 15:35 #

Ja ich hab mir bisher meine PCs auch immer selbst aus Einzelteilen zusammengebaut aber wenn ich mir vielleicht in zwei Jahren oder so nochmal einen neuen PC kaufen will, werde ich da definitiv auch erstmal nach Komplettsystemen schauen. Ich kann es zwar aber auf den Zusammenbau habe ich mittlerweile auch komplett keine Lust mehr.

Noodles 22 AAA-Gamer - P - 36159 - 3. September 2015 - 18:37 #

Ich spiele auch schon seit 20 Jahren und weiß auch, was für ein Gefrickel das früher war, dass ich das als Kind überhaupt alles hinbekommen hab. Das hat man doch heute alles nicht mehr.

D43 15 Kenner - 3603 - 3. September 2015 - 18:51 #

Dafür sind andere noch viel schlimmere Dinge dazu gekommen wie ich oben schon erwähnt habe. Vll ist das für viele nicht relevant aber ich mache da nicht mit.

Noodles 22 AAA-Gamer - P - 36159 - 3. September 2015 - 18:55 #

Das wird irgendwann auch noch alles zu den Konsolen überschwappen, keine Sorge. :D Die haben sich doch jetzt schon ein paar Ärgernisse vom PC abgeschaut.

Toxe 21 Motivator - P - 29979 - 3. September 2015 - 15:28 #

Natürlich ist das mein Problem, das bezweifle ich auch an keiner Stelle. Genau so wie es mein "Problem" ist, daß ich Spielen vor dem Fernseher + Controller als komfortabler empfinde, das würde ich aber auch nie als allgemeingültige Wahrheit hinstellen.

Und obige Punkte waren, wie geschrieben, nur ein Aspekt warum ich vom PC als Hauptplattform weg bin (ich hab ihn ja immer noch für einige Sachen wie zB. Strategiespiele, die es nicht auf Konsolen gibt), es gibt daneben halt auch noch andere Gründe.

Worüber wir allerdings nicht diskutieren brauchen ist die Frage, ob "der PC" nun komfortabel ist oder nicht. Das ist vollkommen subjektiv und hängt sowohl vom Benutzer, der Hard- und Software und den ganzen anderen Umgebungsbedingungen ab (Schreibtisch, Wohnzimmer usw.). Es gibt Leute, die Spielen mit ihrem PC vor dem Fernseher und haben damit keine Probleme, bei mir sieht es halt anders aus, für mich persönlich ist das aus verschiedenen Gründen bisher keine Option.

"Ihr könnt ja alle an der Konsole spielen, aber dann nicht so einen Mist schreiben. PC war nie konfortabler als heute."

Du schreibst hier aber doch gerade genau den selben Mist. Wenn ich irgendwas zum Thema PC vs. Konsole schreibe, versuche ich eigentlich immer klar zu machen, daß meine Entscheidungen auf persönlichen Gründen basieren und stelle mich doch auch nicht hin und erkläre, daß PCs allgemein anerkannt ja ganz schlimm seien. Daher stell Du Dich doch bitte nicht hin und erkläre uns, daß "der PC" (den es nicht gibt) heute so komfortabel und toll wie nie sei. Es freut mich ja für Dich, daß Du mit Deiner Situation zufrieden bist, aber stell das doch bitte nicht als allgemeine Wahrheit hin.

Es gibt genug Gründe gegen & für sowohl Konsolen als auch PCs, aber jeder von uns gewichtet diese anders. Da gibt es keine allgemein anerkannte Wahrheit.

Noodles 22 AAA-Gamer - P - 36159 - 3. September 2015 - 18:41 #

Wieso, es ist doch Fakt, dass Spielen am PC viel komfortabler ist als früher, das hat doch nix mit eigener Meinung zu tun. Oder bist du der Meinung, dass Spielen zu DOS-Zeiten genauso war wie jetzt zur Zeit von Steam?

Toxe 21 Motivator - P - 29979 - 3. September 2015 - 19:01 #

Streng genommen war das damals auch nicht so kompliziert, wenn es einmal funktionierte. Die Probleme entstanden nur dann, wenn mal was nicht klappte – aber das ist heute auch nicht anders.

Despair 16 Übertalent - 4872 - 3. September 2015 - 20:15 #

Naja, früher gab es schon wesentlich mehr Probleme. Zuerst wollte jedes zweite Spiel seine eigene config.sys, ab dem 3D-Beschleuniger-Zeitalter kamen Treiberprobleme, Kopierschutzgedöns und sonstige Inkompatibilitäten. Besonders, wenn man aufs falsche 3D-Pferd gesetzt hatte (wie ich, mit 'ner S3 Virge).

Aber seit Windows XP, Steam und GOG in Verbindung mit halbwegs leistungsfähigen Intel/AMD-CPUs + NVidia/AMD-Karten ist der Komfort doch beträchtlich gestiegen. Ich kann mich in den letzten Jahren an kein einziges Spiel erinnern, dass mir größere Probleme verursacht hätte. Dank GOG sind nichtmal die alten Schoten mehr zickig.

BigBS 15 Kenner - 3112 - 3. September 2015 - 16:24 #

Wie sagt man so schön? Woooooorrd. :-)

Zwar hatte ich mich nie so lange in den Einstellungen aufgehalten, aber alleine die Tatsache das man überhaupt was einstellen musste...mich gruselt es mittlerweile bei dem Gedanken. brr...

Hm, da kommt grade eine alte Erinnerung bezüglich Einstellen hoch. Ich glaube meine ersten Einstellungen hatte ich am C64 vorgenommen, wo man den Tonkopf der Datasette immer auf die jeweiligen Kassetten einstellen musste bis die Linien schön grade waren.
Das, Kinder, DAS waren noch Einstellungen.

Toxe 21 Motivator - P - 29979 - 3. September 2015 - 16:59 #

Hehe ja, die gute alte Datasette. Das waren noch Zeiten... die ich so auch nicht wieder haben möchte. ;-)

Barkeeper 16 Übertalent - 4253 - 3. September 2015 - 13:54 #

Haha! Wart mal ab bis die erste Konsole mit nVidia GraKa kommt.. Haha! :-)

Thomas Barth 21 Motivator - 27682 - 3. September 2015 - 13:59 #

Kommt doch demnächst und nennt sich Nvidia Shield Android TV:
http://shield.nvidia.de/android-tv/

Ist sogar so stark, dass man Android-Spiele darauf spielen kann!

D43 15 Kenner - 3603 - 3. September 2015 - 14:57 #

Unglaublich!! Aber wer kauft sowas?

Thomas Barth 21 Motivator - 27682 - 3. September 2015 - 16:01 #

Ich besitze einen Amazon Fire TV, einen Fire TV Stick und eine Vita TV. Dadurch das ich hier im Haushalt immer darauf achte, möglichst wenig Strom zu verbrauchen, konnte ich langfristig den Stromverbrauch von 3.600 auf 3.000 kWh senken.

Durch die Vita TV kann ich meine Indie-Spiele nun auf dem großen Fernseher, die PS4 verbraucht alleine 78 Watt im Dashboard und bis zu 140 Watt in Spielen, die Vita TV maximal 3 Watt und ich kann unterwegs weiterspielen.

Es werden auch immer mehr Micro-Konsolen angekündigt, mittlerweile gibt es eine stattliche Auswahl: Fire TV, Vita TV, Mojo, Ouya, Shield TV, Razer Forge TV, Gamestick, Gamepop usw.

Dieser Markt ist so Gewinnbringend, dass es bereits Schätzungen gibt, dass solche Micro-Konsolen eine größere Hardware-Baiss haben als die PS4. Oder meinst du Spiele wie Professor Layton, Fantasy Life 2, Limbo, Xcom, The Banner Saga, Hearthstone und noch eine Million andere kommen umsonst für Android und iOS?

Hier auch ein schöner Artikel darüber;
http://www.polygon.com/2014/10/6/6923975/razer-microconsole-playstation-tv-amazon-fire-tv

D43 15 Kenner - 3603 - 3. September 2015 - 16:09 #

Tut mir leid für mich trotzdem total uninteressant.
Filme über smart TV oder Konsole je nach Bedarf. Kann mir nicht vorstellen da etwas zu sparen, wie soll das auch gehen wenn mein TV direkt mit Amazon verbunden ist anstatt mit einer Mini Konsole.

Thomas Barth 21 Motivator - 27682 - 3. September 2015 - 16:23 #

Die Verbreitung von vernünftigen Smart TVs ist immer noch sehr gering, deswegen gibt es ja diese Micro-Konsolen. In den 70ern gab es bereits ein ähnliches Prinzip, nur waren das da noch die Pong-Konsolen. Da hatte ich die hier:
http://www.homecomputermuseum.de/game/detail/39.jpg

War echt klasse damals :D

D43 15 Kenner - 3603 - 3. September 2015 - 18:52 #

Ok für ältere Geräte macht das schon eher sinn da geb ich dir recht.

blobblond 19 Megatalent - 18413 - 3. September 2015 - 9:16 #

Kann man diese DirectX-12-Funktion noch nicht in Holz "abdrucken"?^^

Koffeinpumpe 15 Kenner - 3314 - 3. September 2015 - 9:46 #

Hm, mit meinem Dino HD6900 bin ich noch voll zufrieden. Bis ich was neues brauche, läuft DX 13 rund. ;)

DarkVamp 12 Trollwächter - 910 - 3. September 2015 - 9:46 #

Das AMD in Bezug auf DX12 die besseren Karten hat liegt seit Längerem auf der Hand

Spiritogre 18 Doppel-Voter - 11995 - 3. September 2015 - 14:32 #

War einer der Gründe warum ich mir jetzt eine Radeon R9 380 gekauft habe. Zwar ist eine GeForce GTX 960 theoretisch momentan bei vielen Titeln genauso schnell aber bei einigen Ausnahmen wie Mordors Schatten oder Witcher 3 ledert die 380 die 960 bereits komplett ab und schlägt sogar die Radeon R9 280x.

Sowohl Radeon R9 390 als auch GeForce 970 sind mir allerdings schon wieder zu teuer.

Nach den Spielen die ich probiert habe kommt die 380 bei mir bei fast allen neueren Titeln selbst mit Ultra Settings oft auf über 60 FPS. In einem Jahr oder in zweien kann ich dann auch damit leben, wenn ich mal ein paar Einstellungen ein wenig runterschrauben muss oder je nach Art des Spieles reichen mir auch ohnehin 30 FPS.

jeef 12 Trollwächter - 890 - 3. September 2015 - 17:04 #

Die 380 ist bei vielen Titel schneller als die 960,
die 960 hat ihre glanz Momente in einigen Games wo sie AMD davon zieht.
Würde sagen es hält sich in Waage.
Die 3GB 280X OC Version wäre aber die bessere Wahl gewesen da sie nicht mehr kostet als die beiden anderen aber mehr Leistung bietet.

Spiritogre 18 Doppel-Voter - 11995 - 3. September 2015 - 17:16 #

Grundsätzlich ist die 280x schneller als die 380, das stimmt.

Ich denke jedoch auch an die Zukunft und die 200er Reihe unterstützt noch kein DX12. Nun soll die neue Karte aber auch mind. zwei, drei Jahre halten. Ich gehe davon aus, dass die 4GB und die DX12 Unterstützung sich daher in Zukunft bemerkbar machen werden und die Karte zumindest mit der 280x gleichzieht, wenn nicht sogar in einigen kommenden Spielen abseits von besseren Effekten auch sogar schneller sein wird. Und bei aktuellen Titeln ist die 380 eh schnell genug.

jeef 12 Trollwächter - 890 - 3. September 2015 - 18:57 #

Ja, das stimmt schon, kommt halt immer darauf an was man genau sucht.
Das die Karten noch 2-3 Jahre halten da würde ich mir auch bei der 200er Serie keine Sorgen machen. Grafikkarten halten sich mittlerweile "ewig" nicht mehr so wie früher.Wenn man mal guckt wo die vorgänger Serien
noch stehen bzw mithalten. Ist es schon fast lächerlich überhaupt Geld für eine neue zu bezahlen. Klar es kommt immer auf einen persönlich an
und wie lange man gerne alles auf Hoch/Ultra stehen haben will oder ob man dies überhaupt macht. Wenn man jetzt mal rein von der Spieleleistung ausgeht.

PraetorCreech 15 Kenner - P - 3864 - 3. September 2015 - 17:19 #

Ich habe auch ganz bewusst eine 380 4GB gekauft. Ja, die 280X ist schneller, aber sie basiert noch auf GCN 1.0, die 380 auf GCN 1.2. Den Unterschied machen für mich vor allem die besseren Downsamplingmöglichkeiten im Treiber für nicht so leistungshungrige Spiele und der verbesserte UVD für neuere Videoformate. Es muss nicht zu 100% die 3D-Leistung sein, die den Ausschlag für das eine oder andere Modell ausmacht. Vor allem bei den paar Prozentpunkten.

Harlevin 11 Forenversteher - 573 - 3. September 2015 - 10:15 #

Ach nVidia, was macht ihr nur. Die 8800er-Karten waren so fantastisch, meine 460 Ti läuft immer noch prima. Aber die Brocken, die ihr da in letzter Zeit reißt. 3.5 GB, obwohl selbst irgendwelche Low-End-Karten mit korrekt angebundenem 4GB Videospeicher ausgestattet werden. Jetzt das hier. Die Holzschrauben.
Vielleicht sollte meine nächste Karte doch von AMD sein, obwohl ich mir schon Sorgen um die Treiber etc. mache und es schade finde, dass PhysX wegfällt.

Dennis Ziesecke Freier Redakteur - P - 29752 - 3. September 2015 - 10:17 #

Ich habe mit der 750Ti im Desktop nicht weniger Treiberprobleme als mit der AMD im Notebook und mit älteren Desktopkarten. Wenn AMDs Treiber katastrophal sind, dann sind es die von Nvidia leider auch. Und PhysX? Nutzt das noch jemand?

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 3. September 2015 - 13:27 #

Hmm.. meine aktuelle Karte ist die GTX 570, weil ich Physik toll finde.. und das gabs damals für mich mehr oder weniger nur mit PhysX.

Gut, leider spielt vernünftige Physik immer noch ein Nischendasein und wenn es endlich, endlich mal ein übergreifendes Framework für Physik gäbe, welches AMD und Nvidia gleichermaßen bedienen können, wäre ich sehr zufrieden. Soll mit DirectX 12 da nicht was in der Richtung kommen, oder habe ich das falsch im Gedächtnis?

Noodles 22 AAA-Gamer - P - 36159 - 3. September 2015 - 14:54 #

Ich finde PhysX großartig.

TSH-Lightning 18 Doppel-Voter - P - 11583 - 3. September 2015 - 18:05 #

Ich hatte mit beiden schon Probleme, gibt sich nicht viel. Mit der(n) Nvidia 7800GTX wollte ums verrecken Vampire 2 - Bloodlines nicht laufen. Hab das dann Jahre später nachgeholt. Die 5900 war die einzige Karte die den Geist aufgegeben hat.

Win7 neu auf Laptop mit AMD APU installiert Catalyst 15.7 installiert. Win-Leistung-Index funzt net und komischer Weise kann ich keinerlei H264 Videos abspielen. Catalyst aktualisiert auf glaube 15.7.1 aber nix geht. Hab den halben Tag im Netz gelesen und unzählige Sachen ausprobiert, bis ich dann den alten Omega-treiber installiert habe und da gab es dann wieder eine Treiberkomponente zur Videobeschleunigung und auf einmal geht alles. Das hat mich sehr geärgert...

Aiex 16 Übertalent - 4335 - 3. September 2015 - 18:20 #

Ich habe keine Probleme, was sagt das jetzt aus?

Harlevin 11 Forenversteher - 573 - 4. September 2015 - 9:05 #

Naja, PhysX ist schon ziemlich fesch, selbst wenn es nur für kosmetische Sachen genutzt wird wie mehr herumfliegendes Papier.
Und AMD ist ja jetzt auch nicht unbedingt ein Verein mit weißer Weste; nutzen sie nicht seit der 3. Generation jetzt die gleichen Chips auf den Grafikkarten? Außer auf den Fury-Karten, da ist wohl ein neuer drauf. Wenn mein Halbwissen mich da jetzt nicht täuscht ;)

D43 15 Kenner - 3603 - 4. September 2015 - 9:12 #

AMD kann denn selben Chip auch 5 mal nutzen solange die versprochene Leistung am Ende auch da ist und die technischen Spezifikationen erfüllt sind und nicht gemogelt wird.

Mach nvidea übrigens genau so...

Dennis Ziesecke Freier Redakteur - P - 29752 - 4. September 2015 - 10:52 #

WENN PhysX denn genutzt wird. Die Hardwareversion, es gibt ja noch eine deutlich effektloserere Softwareemulation, die auch AMD-Karten beherrschen und die öfter eingesetzt wird. Aber welche aktuell relevanten Spiele mit PhysX gibts denn? Ich könnte keine fünf aktuellen Beispiele aufzählen.

Die Resteverwertung von alten Chips ist ärgerlich aber leider bei allen Herstellern Realität. Ist doof, AMD etwas doofes anhängen zu wollen wenn Nvidia es nicht anders macht. Je weiter man in der Leistung nach unten schaut, desto länger werden alte Chips durchgeschleppt.

Fury hingegen ist vor allem aufgrund der spannenden HBM-Speichertechnik sehr interessant. Sehr schmal, energieeffizient und schnell. Die Nano finde ich spannend, damit sind Wohnzimmerrechner mit (voraussichtlich) Highendleistung möglich.

Harlevin 11 Forenversteher - 573 - 4. September 2015 - 11:26 #

Naja, wie gesagt, Halbwissen. Ich möchte AMD auch nicht unbedingt etwas schlechtes anhängen, es sind nur einfach die Dinge, die man über die Karten dieser Firma immer hört. Ich bin ja auch von nVidia alles andere als begeistert.
Ich tue mich schwer, mich für einen Hersteller zu entscheiden: nVidia belügt die Leute offensichtlich und entschuldigt sich nicht einmal anständig, von AMD hört man so oft schlechte Sachen was Treiber und Performance angeht und jetzt steht man hier, klein mit Hut, und fragt sich, was man denn jetzt machen soll. Nicht upgraden wäre wohl die einzige sichere Möglichkeit, nicht mehrere hunderte Euro potentiell zu versenken. Oder einfach Intel-Onboardgrafik ;)

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 4. September 2015 - 11:42 #

Das Problem hierbei ist aber auch, dass enorm viel Halbwissen oder Blödsinn über die angeblich dauernden Probleme bei AMD Grafikkarten im Internet verbreitet werden ;)
Ein paar meiner Kollegen hier im Büro schwören auf Intel und Nvidia, weil sie mit AMD Prozessoren vor 8 oder 10 Jahren mal Probleme hatten. Und das stülpen sie immer noch der aktuellen Hardware als Stigma über nach dem Motto "das kann doch eh nichts gutes sein, mit X hatte ich im Vergleich zu AMD noch NIE Probleme"..
Und ich gehe jede Wette, dass ein guter Teil der potentiellen Käuferschaft ebenfalls in so einer begrenzten Dimension denkt. (Ich z.B. auch, kaufe keine Platten von WD mehr, weil das die einzigen sind, die mir bisher immer kaputtgegangen sind ;)

Das dumme ist ja, wenn Leute "glauben" wollen, kommt man mit Argumenten nicht mehr weit :(

Harlevin 11 Forenversteher - 573 - 4. September 2015 - 11:52 #

Ich hatte mit meinem Phenom ernorme Probleme, weswegen ich riesigen Abstand von AMD-Prozessoren halte. Der Wechsel auf einen Core i5 war wie ein Gottesgeschenk. Plötzlich ruckelte mein Browser nicht mehr! Ein Wahnsinn.
Und ich schwöre auf WD-Platten ;)

Wie dem auch sei, ich habe sowieso nicht vor, in diesem Jahr noch meine Graka upzugraden, deswegen kann ich noch in Ruhe abwarten, was mit dem geschichteten Speicher so geschehen wird und wie sich die Preise da entwickeln. Dann kann ich ja immer noch entscheiden, ob nVidia oder AMD. Oder Matrox um mal ganz Hipster zu sein

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 4. September 2015 - 12:44 #

Ich hatte eigentlich dieses Jahr an ein Upgrade gedacht, habe das ganze aber auf Mitte nächstes Jahr verschoben. Da mein Phenom X2 seit über fünf Jahren wunderbar läuft, möchte ich auf jeden Fall Zen abwarten und dann entscheiden. Bis dahin gibts dann wahrscheinlich auch wieder noch eine neue Grafikkartengeneration.. ich bin gespannt.
Der Masterplan ist ja, Windows zum zocken in ner VM laufen zu lassen auf einem Linux Hauptsystem ;)

D43 15 Kenner - 3603 - 4. September 2015 - 14:34 #

Warum nicht einfach dual Boot??
Zocken un vm kannst du nämlich vergessen!

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 4. September 2015 - 15:12 #

Nein, das geht wunderbar, wenn die Hardware passt!
Ein Kollege von mir hat ein Debian Grundsystem, wo er mit Xen die Hardware 1zu1 durchreicht zu seiner Windows 7 VM. Wenn das Board, Grafikkarte und die übrigen Komponenten VGA Passthrough und derlei nativ unterstützt, ist der Weg offen.
Ist Bastelei am Anfang, ja. Aber seine Windows 7 VM denkt, sie hätte eine 128GB SSD als Unterbau und nutzt vier Kerne des i7 mit der AMD Grafikkarte zum zocken ohne wirkliche FPS Verluste im Vergleich zu vorher, als er das nativ genutzt hatte.
Sehr abgefahren, aber es geht auf jeden Fall, wenn die Hardware es unterstützt :)

D43 15 Kenner - 3603 - 4. September 2015 - 15:31 #

Ok. Nett
Wäre mir aber zuviel gebastel, dualboot und gut ists :)

Spiritogre 18 Doppel-Voter - 11995 - 4. September 2015 - 15:55 #

Ich bin immer nur am überlegen, abseits von Spielerei und Technikinteresse, wozu man ein zweites Betriebssystem braucht? Was kann das, was das andere nicht kann? Welche Software gibt es, die ich benötige, die es auf dem anderen nicht gibt?
Entsprechend nehme ich halt das Betriebssystem wo es alles gibt was ich brauche und nutzen will, alles andere klingt und ist für mich halt, wie gesagt, irgendwo zeitraubende sinnfreie Spielerei (was ja bei Interesse daran durchaus auch in Ordnung ist, es ist halt nicht als Produktivsystem gedacht).

So halte ich es z.B. sinnvoll Linux auf einem HTPC zu betreiben, sofern man damit keine BR schauen will. Oder auf einem kleinen Netbook entweder Chrome oder Linux, wenn das nur zum Surfen und vielleicht ein wenig Office gedacht ist (Softmaker Office gibt es zum Glück ja auch für Linux, wobei es neben Sofmaker Mobile inzwischen auch das originale Desktop Office für Android gibt, Maus und Tastatur dran und es ist wie Arbeiten auf einem richtigen Desktopsystem, bei Amazon Underground übrigens sogar kostenlos).

D43 15 Kenner - 3603 - 4. September 2015 - 16:19 #

Bei mir ganz einfach:

Windows Partition = spielestarter + offline
Linux Partition. = Alles andere

Spiritogre 18 Doppel-Voter - 11995 - 4. September 2015 - 16:23 #

Schon klar, aber warum? Mit einem System ist es doch erheblich einfacher.

D43 15 Kenner - 3603 - 4. September 2015 - 19:27 #

Ich mag einfach Linux lieber als Windows. Ist einfach so, Gewohnheit.

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 4. September 2015 - 22:38 #

Geht mir auch so, aber bei mir kommt noch der Sicherheitsaspekt mit dazu. Alle anderen Maschinen bei mir im Haushalt laufen mit Linux, da soll mein Zockerrechner vom Grundgerüst auch noch dazugehören..
Dass das ne üble Bastelei wird weiß ich, mein Kollege hat es im dritten Anlauf nach vielen Stunden so hingebastelt, dass es seitdem einwandfrei läuft ^^;
Aber gerade das reizt mich auch daran, weil ich dadurch ne Menge nebenbei lernen werde :)

Zeitmäßig muss ich das nur meiner Frau klar machen, wenn ich mich mal eben ein komplettes Wochenende in meinem Büro vergrabe, weil.. Technik! ;)

D43 15 Kenner - 3603 - 5. September 2015 - 4:29 #

Mein Tipp :
Mach am Samstag morgen einen schönen frischen kaiserschmarn mit Apfelmus für deine Frau, das stimmt meine zumindest immer sehr gnädig wenn ich zeit zum basteln brauche ;)

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 5. September 2015 - 13:13 #

Werds mir merken und gegebenenfalls ausprobieren xD

Noodles 22 AAA-Gamer - P - 36159 - 4. September 2015 - 12:48 #

Naja, ist doch normal, dass man bei etwas bleibt, womit man gute Erfahrungen hat und etwas vermeidet, womit man schlechte Erfahrungen hatte, selbst wenn es schon einige Jahre zurückliegt. Mir gehts ja auch so, hatte nur schlechte Erfahrungen mit ATI-Karten, mit Nvidia nie, also bleib ich bei Nvidia. Bei den Prozessoren dagegen war ich immer AMD-Käufer, hab jetzt auch noch einen Phenom II drin und warte, dass die mal wieder was Gescheites rausbringen. Bin aber selbst erstaunt, wie gut sich mein Phenom II noch schlägt. Kann immer noch alles spielen, was mich interessiert. :)

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 4. September 2015 - 13:09 #

Ist bei mir genauso, mein Phenom II werkelt nachwievor super :)
Als Grafikkarte habe ich das zweite Mal in Folge Nvidia (ist aber auch schon länger her, habe noch eine GTX 570), weil ich PhysX einfach sehr mochte - das hat damals bei mir den ausschlaggebenden Punkt ausgemacht.

Toxe 21 Motivator - P - 29979 - 4. September 2015 - 11:57 #

Ich sag mal so: Meine letzte AMD bzw. ATI Karte war damals die allererste originale ATI Radeon, das war also grob ca. 15 Jahre her. Seit dem habe ich jedes mal vor dem Kauf einer neuen Karte ATI und Nvidia verglichen und bin dann aber letztlich doch immer wieder bei Nvidia gelandet.

Zum einen weil ich wusste, was da auf mich zukommt. "Never change a running system" und so. Zum anderen hatte ich aber jedes mal bei meinen Recherchen den Eindruck, daß Leute mit ATI Karten bzw. Treibern (etwas) mehr Probleme hatten.

Ausserdem hatte ich teilweise auf meinem Spiele PC auch noch Linux laufen (in meinem damaligen, bis zum Wechsel auf den Mac, Arbeits-PC war eine Matrox Karte) und die Linux Treiber von Nvidia waren immer schon besser als die von ATI. Bzw. gab es gar keine von ATI.

Und dann kam in den letzten zehn Jahren oder so noch dazu, daß es einfach zu oft vorgekommen ist, daß Spiele zu Release nur für Nvidia Karten optimiert waren und ATI Besitzer erst auf Patches warten mussten. Und es gab durchaus Spiele, wo die ATI Probleme nie vollständig behoben wurden. Und das ist teilweise ja auch heute noch so.

Quasi jedes mal habe ich ATI eine Chance gegeben und Karten beider Hersteller verglichen, und jedes mal bin ich doch wieder bei Nvidia gelandet. Und bis vielleicht zu den letzten fünf Jahren war ich eigentlich dann auch immer total zufrieden mit Nvidia.

Toxe 21 Motivator - P - 29979 - 4. September 2015 - 11:41 #

PhysX ist ja Open Source und Unity (also die Engine) verwendet PhysX für ihre Physik-Engine, wenn auch mit leichten Anpassungen aber das ist ja legitim. Das heisst so gut wie jedes Unity Spiel verwendet PhysX. Allerdings nur in der Software Version, also ohne Hardware-Beschleunigung.

Soweit ich das ganz allgemein verstanden habe macht die Hardware-beschleunigte Version wohl einfach zu viele Probleme und die Software-Version läuft wohl hochgradig optimiert, so daß diese mittlerweile vollkommen ausreichend ist.

Labrador Nelson 28 Endgamer - - 100104 - 3. September 2015 - 18:07 #

Dann sollte sich NVIDIA aber bald dazu äußern!

TheGood 14 Komm-Experte - 2561 - 4. September 2015 - 0:15 #

Nvidia lebt halt weiterhin nach Ihrem neuen Firmenmotto:

ich mach mir die Welt, widde widde wie sie mir gefällt

woher Sie sich das nur geklaut haben? ;)

Despair 16 Übertalent - 4872 - 4. September 2015 - 13:33 #

Ich finde es immer wieder witzig, wie sich manche Leute auf bestimmte Firmen einschießen, im positiven oder im negativen Sinne. Steht bei mir ein Grafikkartenkauf an, nehme ich mir Fachzeitschriften und lese Testberichte der Karten, die für mich preislich interessant sind. Dann wird das Teil gekauft, dass am ehesten meinen Wünschen entspricht. Ob da AMD oder NVidia draufsteht, war mir, ist mir und wird mir immer egal sein.

Spiritogre 18 Doppel-Voter - 11995 - 4. September 2015 - 13:58 #

Genauso sehe ich das auch!

Wobei es allerdings gerade beim Desktop so ist, dass AMD in meinem Preisbereich von 200 bis 250 Euro einfach in der Vergangenheit häufiger die bessere Preis / Leistung hatte. Wobei ich aber dennoch in den vergangenen 15 Jahren immer mal wieder auch GeForces hatte und z.B. in Notebooks immer nur GeForce nehme.

Die Probleme die viele Leute mit AMD Treibern gehabt haben wollen oder gar noch haben kann ich nicht nachvollziehen. Auf keinem meiner zahllosen PCs der letzten Jahrzehnte hatte ich Probleme. Ich tippe mal, dass da irgendwelche Komponenten nicht (richtig) installiert waren, da sich irgendwelche Treiber oder IRQs (schlechtes BIOS) gegenseitig gestört haben oder ähnliches.

Gerade im Multimonitorbetrieb scheinen mir die AMD Treiber übrigens wesentlich besser. Mit dem Notebook mit GeForce habe ich öfters Probleme mit der Auflösung und Vollbilddarstellung.

Ich lese ja auch immer noch in Foren von Leuten, die alle halbe Jahr ihr Win 7 oder 8 neu installieren, weil es mal wieder lahm geworden ist und ständig abstürzt. Ich weiß echt nicht, was manche Leute mit ihren PCs anstellen? Und ich probiere ständig irgendwelche Software aus und habe ziemlich viel externe Hardware angestöpselt. Spätestens mit Win 7 musste ich aber das OS nie mehr neu installieren. Das geschah einmal auf einem Rechner und dann lief das immer bis der Rechner den Geist aufgab.

Despair 16 Übertalent - 4872 - 4. September 2015 - 14:16 #

"Die Probleme die viele Leute mit AMD Treibern gehabt haben wollen oder gar noch haben kann ich nicht nachvollziehen."

Wirkliche Probleme mit einem ATI-Treiber hatte ich (unter Windows) zuletzt bei der Rage Fury Maxx. Das dürfte inzwischen gut 15 Jahre her sein. Die aktuellen AMD-Treiber nerven zwar leicht durch eine etwas langwierige Installation, aber sie laufen bei mir einwandfrei. Genausowenig kann ich über NVidia-Treiber etwas Negatives berichten.

Ich gehöre allerdings auch nicht zu der Fraktion, die einen neuen Treiber einfach über den alten drüberbügelt. Erst Deinstallation des alten Treibers, dann eventuelle Reste entfernen und den neuen installieren. Dauert zwar minimal länger, aber damit bin ich bisher am besten gefahren.

Spiritogre 18 Doppel-Voter - 11995 - 4. September 2015 - 15:59 #

Wie gesagt, bei Nvidia habe ich über HDMI immer ein wenig Probleme mit der richtigen Auflösung und bildschirmfüllenden Darstellung, obwohl der interne Schirm und der TV die gleiche Auflösung haben. Wenn es läuft, dann ist alles gut, aber wenn ich das Notebook mal woanders dran hatte, dann geht gelegentlich das Gefriemel wieder von vorne los.

Bei AMD ist halt das "Problem", dass man das Update manuell anstoßen muss. Andererseits habe ich das Gefühl gehabt, zumindest bei meiner alten Karte, dass da Updates auch überhaupt nicht notwendig sind. Ist eher interessant, solange man eine Karte aus der jeweils aktuellen Generation hat, für die die Treiber optimiert werden.

Weryx 18 Doppel-Voter - P - 10696 - 5. September 2015 - 22:23 #

Mah auf der Packung meiner GTX 970 steht doch das die DX12 ready ist =(

Nudeldampfhirn 14 Komm-Experte - P - 2525 - 5. September 2015 - 23:18 #

Naja, wenn auf z.B. Fernsehern HD Ready draufsteht heißt das ja auch nur, dass sie das Signal verarbeiten können - rechnen es dann aber runter auf die niedrigere Auflösung des Fernsehers ;)

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit
floppiLabrador Nelson
News-Vorschlag: