Geforce RTX 2060: Nvidia bringt Raytracing in die Mittelklasse

Bild von CaptainKidd
CaptainKidd 15391 EXP - 19 Megatalent,R10,S3,A9,J8
Dieser User hat uns an Weihnachten 2017 mit einer Spende von 10 Euro unterstützt.Dieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Bronze-Jäger: Hat Stufe 5 der Jäger-Klasse erreichtVielspieler: Hat 250 Spiele in seine Sammlung eingetragenDieser User hat uns zur KCD Aktion mit einer Spende von 10 Euro unterstützt.Vielschreiber-Azubi: Hat mindestens 50 veröffentlichte News geschriebenBronze-Archivar: Hat Stufe 5 der Archivar-Klasse erreichtBronze-Reporter: Hat Stufe 6 der Reporter-Klasse erreichtAzubi-Redigierer: Hat 100 EXP beim Verbessern fremder News verdientKommentierer: Hat 100 EXP mit Comments verdientVorbild: Hat mindestens 100 Kudos erhaltenProfiler: Hat sein Profil komplett ausgefüllt

8. Januar 2019 - 23:48 — vor 35 Wochen zuletzt aktualisiert

Auf der zurzeit stattfindenden CES in Las Vegas hat Nvidia seine neueste Grafikkarte Geforce RTX 2060 vorgestellt. Der Nachfolger der weit verbreiteten Geforce GTX 1060 stellt damit das untere Ende des Karten-Portfolios mit dem neuen Turing-Grafikchip dar und zielt - im Gegensatz zu den bereits 2018 veröffentlichten und eher an Enthusiasten gerichteten Modellen RTX 2070, RTX 2080 und RTX 2080 Ti - auf die breite Mittelklasse ab.

Der Turing-Chip ist im Vergleich zur RTX 2070 leicht beschnitten: 1.920 Shader (statt 2.304) und 120 Textureinheiten (statt 144) stehen zur Verfügung, auch der Videospeicher fällt mit sechs statt acht Gigabyte GDDR6-RAM kleiner aus. Die GPU taktet im Referenzdesign mit 1.365 MHz, mit Boost soll sie bei 1.680 MHz liegen. Insgesamt soll sich die Performance der RTX 2060 in etwa auf dem Niveau einer GTX 1070 Ti bewegen und diese teilweise sogar übertreffen. Auch Raytracing wird die Mittelklasse-Karte wie ihre größeren Geschwister bieten.

Ab dem 15. Januar soll die neue Geforce RTX 2060 als obligatorische Founders Edition erhältlich sein. Nvidia ruft eine UVP von 369 Euro auf. Im Unterschied zu den bisherigen Founders Editions der Turing-Karten ist die RTX 2060 aber nicht ab Werk übertaktet. Erste Custom Designs von Nvidia-Partnern wurden bereits vorgestellt und sollten ebenfalls bald verfügbar sein.

vgamer85 19 Megatalent - - 17025 - 8. Januar 2019 - 23:58 #

Sehr coole Karte, mit nur 6 GB Vram. Alternative: GTX 1070 mit 8GB VRam :-)

Viktor Lustig 15 Kenner - P - 3877 - 9. Januar 2019 - 10:53 #

Nur dann eine Alternative, wenn man auf Raytracing verzichten will. Wobei die 2060 effektiv zuwenig Speicher hat, um dieses Feature wirklich zu unterstützen.

MrFawlty 18 Doppel-Voter - 9374 - 9. Januar 2019 - 16:15 #

Letztere zu kaufen wird zunehmend schwieriger, da die Produktion von 1070/1080 eingestellt wurde.
Zuletzt gingen bei den alten Karten auch die Preise wieder rauf.

vgamer85 19 Megatalent - - 17025 - 9. Januar 2019 - 17:59 #

Joa, konnte noch eine der letzten günstigen ergattern. 8GB for the win

Noodles 24 Trolljäger - P - 54708 - 9. Januar 2019 - 1:05 #

Also 8 GB VRAM hätten sie ruhig mal draufpacken können.

Denis Michel Freier Redakteur - P - 261151 - 9. Januar 2019 - 1:59 #

Wird sicherlich auch Alternativ von anderen Herstellern geben.

Noodles 24 Trolljäger - P - 54708 - 9. Januar 2019 - 15:57 #

Gibts dafür Beispiele, dass andere Hersteller mal mehr VRAM verbaut haben? Ne 1060 z.B. gibts meines Wissens ja auch nicht mit mehr als 6 GB.

Maulwurfn (unregistriert) 9. Januar 2019 - 16:53 #

Gibt Nvidia nicht den Rahmen vor in welchem Bereich Custom erlaubt ist?

Noodles 24 Trolljäger - P - 54708 - 9. Januar 2019 - 17:30 #

Ja, ich glaub schon. Ich hab auch noch nicht gehört, dass irgendwo mal von nem anderen Hersteller mehr VRAM verbaut wurde, deswegen hab ich nachgefragt, da ich es vielleicht einfach nicht mitbekommen hab.

Maulwurfn (unregistriert) 9. Januar 2019 - 17:42 #

Mir auch nicht bekannt, aber vielleicht gibt es da draussen so ein Device :)

TSH-Lightning 20 Gold-Gamer - P - 22275 - 9. Januar 2019 - 21:10 #

Das ist von Nvidia verboten, außerdem technisch unmöglich, weil die Einheiten auf dem Chip dafür per Lasercut unbrauchbar gemacht werden.

Maulwurfn (unregistriert) 9. Januar 2019 - 21:23 #

Ah, Danke.

Noodles 24 Trolljäger - P - 54708 - 9. Januar 2019 - 21:23 #

Okay, danke. :)

JensJuchzer 19 Megatalent - P - 17735 - 9. Januar 2019 - 23:01 #

NE, das ist bei Nvidia schlichtweg nicht gewünscht. Ausserdem müsste es dann das speicherinterface wieder erweitern, was ned so einfach geht...

Severin (unregistriert) 9. Januar 2019 - 3:20 #

Die Preise sind unter aller Sau. 369€ für eine 2060... Ich lachte hart.

Harry67 18 Doppel-Voter - - 10464 - 9. Januar 2019 - 6:46 #

Seit wann muss man sich denn über UVPs aufregen? Ein Bitcoin Hype ist halt Pech, da muss man dann mal für eine Zeit die Zähne zusammenbeißen ...

Weryx 19 Megatalent - 13591 - 9. Januar 2019 - 7:01 #

Der Hype, welcher zum Glück schon abgeflaut ist.

Inso 16 Übertalent - P - 5810 - 9. Januar 2019 - 9:48 #

(News 16.11.18)
https://www.heise.de/newsticker/meldung/Krypto-Kater-Bitcoin-Flaute-laesst-Aktie-von-Nvidia-fallen-4223962.html

(News 3.1.19)
https://www.golem.de/news/crypto-mining-nvidias-aktienkurs-hat-sich-mehr-als-halbiert-1901-138481.html

TL:DR: Die NVidia-Aktie ist momentan nur gut die Hälfte von dem wert was sie vor einem Jahr noch wert war, da Cryptomining mittlerweile in weiten Teilen unrentabel geworden ist. Es rennt nebenher auch ne Sammelklage weil NVidia die Anleger getäuscht haben sollen und so - naja, immerhin veräppeln sie nicht nur die Kunden :D

Harry67 18 Doppel-Voter - - 10464 - 9. Januar 2019 - 11:39 #

Mir ging es nur darum, dass der Straßenpreis mal in die eine und dann wieder in die andere Richtung zeigen kann. Ich schätze die 2060 könnte sich so um die 300 einpegeln und steht dann mit ihrem 1070er Leistungsniveau plus einige neue Features gar nicht schlecht da. Bin mir sicher, dass die der neue Standard wird.

Severin (unregistriert) 9. Januar 2019 - 15:30 #

Weil die Karten generell zu teuer sind!?

Ich habe gestern Abend nochmal nachgeschaut, bei der 2060 sind es im Vergleich zur 1060 zum Release (Sofern die Zahlen, die ich gefunden habe, stimmen), "nur" rund 70€ mehr. Aber wofür? Und guck Dir alleine mal die maßlos überzogenen Preise der 2070 und 2080(Ti) an...

Ich weiß noch, dass ich damals um die 1000 DMark für die GeForce 2 Ultra berappen musste. Das war damals die Bestmarke, und schon Anlass für viele Debatten. Mittlerweile sind wir bei 1500€! (UVP, Titan mal außen vorgelassen)

Und nein, das sind die Karten schlichtweg nicht wert. Nicht bei einer Generation die nur marginal schneller als die alte ist und bei aktiviertem Raytracing sogar Gefahr laufen abzufackeln.

g3rr0r 15 Kenner - P - 2997 - 9. Januar 2019 - 16:43 #

Also hier muss Ich dir wirklich zustimmen, ist auch genau meine Meinung. Würde gerne von einer 1080Ti zur 2080Ti wechseln aber 1400€ für den minimalen Unterschied (Mal von Raytracing abgesehn) sind es schlicht nicht Wert... Bis 800€, mehr würde Ich da wirklich nicht für ausgeben.

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 16:58 #

Der Unterschied zwischen einer 1080 ti und einer 2080 ti ist schon bisschen größer. Wir reden hier von ca. 30% + die Möglichkeiten der neuen Technik und sie ist auch die einzige "Mainstream" Karte, die aktuell wirklich in fast allem 4k/60 FPS ohne Kompromisse bieten kann.

Trotzdem ist der Preis natürlich nicht gerechtfertigt. Ich bleibe auch erst mal bei meiner 1080 ti.

g3rr0r 15 Kenner - P - 2997 - 9. Januar 2019 - 22:24 #

Klar mir sehr wohl bewusst das eine Steigerung vorhanden ist jedoch wie du schon selber gesagt hast, der Preis ist eben der Punkt. Daher lieber einfach noch abwarten ;)

Deathsnake 20 Gold-Gamer - 22396 - 9. Januar 2019 - 8:12 #

Du weißt schon, dass die 2060 ein Ersatz für die 1070 ist? Die 2070 für die 1070 TI, die 2080 für die 1080 und die 2080 TI für die 1080 TI?
Für die 1060 kommt die wie Gerüchte rumgehen 1160 ohne RTX Tech

falc410 15 Kenner - 3017 - 9. Januar 2019 - 8:32 #

Super, dann Wechsel ich also, wie von dir beschrieben, von einer 1070 Ti auf eine 2070. Gleiche Leistung aber nochmal 500 Euro zahlen! Das ist mal ein Upgrade! Hat ja nur 3 Jahre gedauert das nvidia eine neue Generation bringt.

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 8:47 #

Rein von der Leistung ist die 2080 einer 1080 ti ebenbürdig und bringt zudem noch wirklich gute neue Techniken.

Die 2070 liegt über der 1080. Die 2080 ti ist wie seinerzeit die 1080 ti in einer vollkommen eigenen Dimension.

Die 2060 besiegt in ersten Tests aktuell die 1070 und von der 2060 müssen ja erst einmal die Custom Designs erscheinen, da sie ja als erste aktuelle Grafikkarte nicht von Haus aus im OC läuft.

In deinem Beispiel würdest du also ungefähr 10-15% mehr Leistung zusätzlich zu Raytracing, DLSS und Co. gewinnen. Z. B. würdest du Dank DLSS in Spielen FPS im zweistelligen Bereich gewinnen, da sich die Tensor Cores um Super Sampling kümmern und kein Antialiasing mehr benötigt wird.

falc410 15 Kenner - 3017 - 9. Januar 2019 - 10:15 #

Ich wollte darauf hinaus, dass es keinen Sinn machen würde wenn die Nachfolgegeneration genauso schnell ist wie die vorherige. Nur wegen dem Feature "Raytracing" oder DLSS wird niemand upgraden. Da brauch es schon mehr Leistung in der selben Preisklasse. War ja bis jetzt auch immer so.

Und DLSS funkktioniert nur wenn man in 4K spielt (oder nur bei FFXV?) - da ich nur einen 1440p Monitor habe, bringt mir das gar nichts leider.

Würde wirklich gerne meine 1070 Ti ersetzen (da ich meinen alten Rechner komplett verkaufen möchte, inkl. Grafikkarte) aber um mehr Leistung zu bekommen müsste ich mindestens auf eine 2080 gehen. 10% Leistung mehr für eine 2070 sind ja dann auch nur 6-10 FPS.

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 10:54 #

DLSS funktioniert mit jeder Auflösung. Anfangs hat es am besten mit 4k funktioniert, da es noch nicht so gut optimiert war und der Effekt und Kosten da am höchsten sind, aber der Algorithmus wird ja auch immer besser.

falc410 15 Kenner - 3017 - 9. Januar 2019 - 11:57 #

Du kannst DLSS in FFXV aber nicht aktivieren wenn du nicht in 4K spielst. DLSS ist in dem Spiel nur für 4K verfügbar, weil das Spiel dann mit 1440p berechnet wird und hochskaliert auf 4K. Daher funktioniert das mit anderen Auflösungen nicht. Ob es bei anderen Spielen anders sein wird, werden wir wohl erst in den kommenden Monaten sehen.

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 12:07 #

Was ja kein Problem ist, denn du kannst ja dank DSR trotzdem am 1440p Monitor spielen. Das Downsampling ist dann wirklich sehr Performance-Effizient. :-)

Sp00kyFox 19 Megatalent - 13544 - 9. Januar 2019 - 10:36 #

laut digital foundry befindet sich die RTX 2060 zwischen einer 1070 Ti und 1080. die RTX 2070 schlägt die GTX 1080. um deine 1070 Ti zu ersetzen, würden also beide karten in frage kommen. der sprung zu einer 2080 ist dafür nicht notwendig.

FastAllesZocker33 16 Übertalent - P - 4701 - 9. Januar 2019 - 10:55 #

Da bin ich doch sehr auf die Benchmarks gespannt, ob es tatsächlich soviel bringt, oder am Ende alles nur Augenwischerei ist.

Deathsnake 20 Gold-Gamer - 22396 - 9. Januar 2019 - 13:05 #

https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/

FastAllesZocker33 16 Übertalent - P - 4701 - 9. Januar 2019 - 14:32 #

Danke!

Nun, im Endeffekt steht dort geschrieben, dass die Karte so schnell ist wie eine 1070 TI, aber 6 GB RAM eher zu wenig sind (aktuell nicht, aber problematisch bei zukünftigen Spielen mit entsprechend großem RAM Bedarf durch Texturen). Man kauft solch eine Karte nicht nur für z.B. 6 Monate, sondern hat wohl einen längeren Nutzungszeitraum im Fokus!

Dann bringen mir aktuell die Features Raytracing, DLSS und Adaptive Shading wenig, da es nur 1 Spiel unterstützt.

Wenigstens der Preis ist ein Lichtblick, denn der liegt deutlich unter dem Einführungspreis der 1070 TI.

Ich würde sagen, wer aktuell eine 1060 oder schneller hat, sollte die Finger davon lassen und abwarten bis die Karte kräftig im Preis sinkt. Würde sie statt für 370 € im Superdeal nur 249 € kosten, dann würde ich zuschlagen! :)

Severin (unregistriert) 9. Januar 2019 - 15:33 #

Du weißt schon, dass es (bisher) normal ist(war), dass die Performance in der nächsten Generation in die nächste Preisschicht darunter gerutscht ist!? Nicht einfach nur den Namen nach unten korrigieren, aber dennoch (fast) das gleiche verlangen...

Labrador Nelson 30 Pro-Gamer - P - 142255 - 9. Januar 2019 - 10:59 #

Naja, die Fertigungskosten im aktuellen und im nächstenkleineren Nanometerbereich sind wirklich hoch. Hinzu kommt noch das Oligopol der wenigen Hersteller.

Severin (unregistriert) 9. Januar 2019 - 15:35 #

Dafür, dass nVidia ihre Fertigungsprobleme nicht in den Griff kriegen, bin ich als Kunde nicht bereit auch noch mehr Geld zu bezahlen. Mit dem zweiten Punkt hast Du leider Recht, AMDs Vega Karten waren solide, konnten aber leider keinen Druck auf nVidia aufbauen, nicht zuletzt, weil sie keiner kaufen konnte, Crypto-Mining-Deppen sei dank...

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 6:46 #

Ansich eine gute Nachricht, jedoch ist der Preis für eine nicht OC Karte schon ziemlich hoch. Und wir wissen ja, wie stark Raytracing die Performance beeinflusst, auch wenn es die letzten Treiber die Situation wesentlich verbessert haben.

Vollmeise 20 Gold-Gamer - P - 23684 - 9. Januar 2019 - 9:16 #

Bei mir werkelt immer noch eine 750TI für damals 130€ und wenn die nicht ausfällt, gibt es keine neue Graka. Da kann Nvidia machen, was sie wollen. :) Außerdem war mal das Preissegment zwischen 120-300 Mittelklasse, das hat sich anständig nach oben verschoben.

FastAllesZocker33 16 Übertalent - P - 4701 - 9. Januar 2019 - 10:57 #

120 € war aber noch nie Mittelklasse.

Vollmeise 20 Gold-Gamer - P - 23684 - 9. Januar 2019 - 11:23 #

Warum nicht? Grafikkarten hatten nicht immer 1000€ als Topmodell gekostet. Da wurden maximal 500€ als Preis aufgerufen. Deshalb lag die Mittelklasse einfach niedriger als heute.

FastAllesZocker33 16 Übertalent - P - 4701 - 9. Januar 2019 - 13:42 #

Okay, mein "nie" passt nicht gut. Ich meine die letzten 5 - 7 Jahre.

vgamer85 19 Megatalent - - 17025 - 9. Januar 2019 - 18:03 #

Ja die Zeiten wo eine High End Karte ala GTX 680 550 Euro kosteten sind vorbei. Bitte zahlen sie mindestens 800 Euro für eine 2080.

Vollmeise 20 Gold-Gamer - P - 23684 - 10. Januar 2019 - 7:04 #

Das ist einfach Wahnsinn und das will ich nicht unterstützen. Mit so einer Karte ist es ja nicht getan, denn dazu kommen die ganzen anderen Komponenten.

Aladan 24 Trolljäger - P - 52405 - 10. Januar 2019 - 7:11 #

Das passiert halt, wenn es im Leistungsbereich keine Konkurrenz gibt.

Vollmeise 20 Gold-Gamer - P - 23684 - 10. Januar 2019 - 9:03 #

AMD hat sich leider selbst in diesem Bereich zerlegt. Aus dem eingekauften ATI-Wissen hätten sie damals mehr machen müssen.

Aladan 24 Trolljäger - P - 52405 - 10. Januar 2019 - 9:18 #

Mal sehen, Radeon VII sieht bisher gut aus.

Harry67 18 Doppel-Voter - - 10464 - 10. Januar 2019 - 6:54 #

Wenn man sich überlegt, dass man dagegen eine XboxX hinterhergeworfen bekommt ...

Sp00kyFox 19 Megatalent - 13544 - 10. Januar 2019 - 14:21 #

dafür kriegt man aber auch entsprechend weniger grafikleistung. die GPU-leistung der XBX entspricht etwa einer GTX 1060. die kriegt man aktuell ab 220€.

Severin (unregistriert) 10. Januar 2019 - 15:39 #

Das ist eine seeeehr großzügige Auslegung der Leistung...

Sp00kyFox 19 Megatalent - 13544 - 10. Januar 2019 - 20:48 #

meinste die XBX würde noch darunter liegen oder wieso großzügig?

Severin (unregistriert) 10. Januar 2019 - 22:08 #

Von der reinen Rohleistung her, meiner Einschätzung nach, ja.

Dass natürlich durch entsprechende Optimierung auf die Hardware mehr erreicht werden kann, als auf exakt gleichstarker Hardware auf dem Rechner, ist klar.

Sp00kyFox 19 Megatalent - 13544 - 10. Januar 2019 - 22:53 #

okay, hat mich irritiert. meiner erfahrung nach wird die leistung meist höher eingeschätzt, schließlich ist es eine 4k-konsole und 4k geht angeblich nicht mit einer GTX 1060. wird natürlich dabei ignoriert, dass das sehr wohl geht, wenn man mit ähnlichen einschränkungen zufrieden ist.

Harry67 18 Doppel-Voter - - 10464 - 10. Januar 2019 - 15:44 #

Mach doch einfach den Vergleich: AC Odyssey in 4K und HDR auf der One X und in 4K und HDR mit einem 1060er PC :)

Sp00kyFox 19 Megatalent - 13544 - 10. Januar 2019 - 20:49 #

aus deinem kommentar schließe ich, dass du diesen vergleich nicht gemacht hast. genau das geht mit einem GTX 1060 setup. da scheinst du die leistung der XBX zu überschätzen. immerhin schafft diese bei AC Odyssey auch nur 30fps bei niedrigen settings und dynamic resolution (im worst case 1656p = 60% 4k). einfach mal bei youtube nach spielnamen, GTX 1060 und 4k suchen, du wirst überrascht sein ;)

Harry67 18 Doppel-Voter - - 10464 - 10. Januar 2019 - 21:05 #

Auf dem MSI mit 1060 bei meinem Sohn macht AC:OY in 4K echt keinen Spaß. Auf meiner 1070 läuft es hingegen akzeptabel. Bei der XBOX X habe ich es noch nicht persönlich ausprobiert, verlasse mich da aber auf befreundete Aussagen.

Aladan 24 Trolljäger - P - 52405 - 10. Januar 2019 - 21:32 #

Läuft auf der Xbox One X mit mittleren/hohen Detail in 4k. Sieht ziemlich gut aus, aber auch kein Wunder allein schon beim hervorragenden RAM und Speicherinterface an sich.

Sp00kyFox 19 Megatalent - 13544 - 10. Januar 2019 - 21:58 #

stichwort dynamic resolution und runtergestellte settings. in nativem 4k und hohen settings hättest du auch auf der XBX mit dem spiel keinen spaß.

Jac 18 Doppel-Voter - P - 9090 - 9. Januar 2019 - 19:32 #

Kommt immer darauf an, welchen Anspruch man an die Grafik hat und welche Spiele man spielt. Für viele Spiele ist die 750TI tatsächlich ausreichend, für manche aktuellen AAA-Games dann halt eher nicht ;)
Dass die Mittelklasse insgesamt immer teurer wird nervt mich auch, das kann ich gut verstehen.

Vollmeise 20 Gold-Gamer - P - 23684 - 10. Januar 2019 - 6:48 #

Ich bewege mich fast nicht mehr im AAA-Bereich, daher ist es einfach ausreichend. Außerdem sind mir die aktuellen Preise viel zu hoch.

MachineryJoe 17 Shapeshifter - P - 6823 - 9. Januar 2019 - 9:15 #

Ich sehe das Raytracing zwar immer wieder im Marketing, bin aber sicher, dass wir es in der Realität nur an wenigen Ecken und Kanten und nur in Ausnahmefällen erleben werden, sei es für spezielle Shader an bestimmten Oberflächen, die auch ein Fallback für ältere Technik haben, als auch bei neuen Schattentechniken, die eben wiederum ein Fallback auf ältere Techniken haben. Gimmicks, die weder Spiel noch Inhalt wesentlich ändern.

Spannend ist es vielleicht am Ende bei den Offline-Renderern wie Lightwave, Modo, Maya oder 3d-Studio, die diese Technologie "missbrauchen", um damit schneller ein Bild oder ein Video zu rendern.

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 9:36 #

Raytracing ist halt das, was man super vermarkten kann. Aber für mich persönlich ist DLSS das wesentlich bessere Feature.

Starkes Super Sampling über die Tensor Cores, während die eigentliche Karte entlastet wird und je nach Titel auch mal 20 FPS mehr darstellen kann, während das Spiel trotzdem besser aussieht.

Sp00kyFox 19 Megatalent - 13544 - 9. Januar 2019 - 10:42 #

die mehrleistung bei verwendung von DLSS entsteht ja nicht von allein, sondern durch die reduzierung der renderauflösung. muss man mal sehen wie sehr sich rekonstruktions-fehler bemerkbar machen. das wäre dann nämlich der tradeoff für den performance-gewinn. eindeutig besser wird es nur bei DLSS 2x ausehen, da spart man aber keine performance.

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 10:53 #

Man konnte es ja sehr gut bei FF XV sehen. DLSS bringt wirklich eine Menge und umso mehr es genutzt wird, umso besser wird es.

Bei DLSS2x (wenn es denn dann irgendwann mal kommt, hoffe dieses Jahr) spart man zwar nicht an Performance, wird aber auch keinen großen Impact haben.

Dafür dann vielleicht ein SSAA 4X ohne Mehrkosten ist schon interessant. ;-)

FastAllesZocker33 16 Übertalent - P - 4701 - 9. Januar 2019 - 13:46 #

Also, ich muss hier auch mal mein Technikwissen weit heraushängen lassen: ich habe sogar GASS 16x. Wie das geht? Nun ja, das steht für GlubschAugenSuperSampling und tritt immer dann automatisch ein, wenn ich am Fernseher zocke und etwas weiter entfernt sitze.

Also ehrlich, dieser ganze Marketing-Buzzword Kram kann mir gestohlen bleiben. Die wollen auch nur mein Geld und Ihre überteuerten Karten verkaufen!

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 13:52 #

Das würde ich mir direkt mal patentieren lassen!

MachineryJoe 17 Shapeshifter - P - 6823 - 10. Januar 2019 - 9:08 #

Ich dachte, es steht für Glasses Augmented Super Sampling und verlangt eine Brille. Bin jetzt aber nicht sicher, ob einfache eine beliebige schlechte Brille reicht, die das Gesamtbild etwas unschärfer macht :)

FastAllesZocker33 16 Übertalent - P - 4701 - 10. Januar 2019 - 11:22 #

Auch eine Idee ! Ich denke da an gurkige rot/grün Brillen für 10 cent wie sie manchen BluRays mit stereoskopie 3D Version beiliegen.

Severin (unregistriert) 9. Januar 2019 - 15:38 #

In 5 bis 10 Jahren ist das ein Standard-Feature.

Du darfst nicht vergessen, dass nVidia (Und die Industrie im Allgemeinen) am Echtzeit-Raytracing schon seit über 15 Jahren arbeiten. Damals gab es schon erste Interviews und Technik-Artikel dazu in der Fachpresse.

MrFawlty 18 Doppel-Voter - 9374 - 9. Januar 2019 - 16:37 #

Bei 3D Spiele würde seit 30 Jahren Raytracing zum Einsatz kommen, wenn die erforderliche Leistung nicht so hoch wäre. 2018 war die Technik endlich soweit.

MachineryJoe 17 Shapeshifter - P - 6823 - 10. Januar 2019 - 9:14 #

Die Vorteile sind aber gering. Beim Offline-Raytracing werden ja viel mehr Strahlen samt ihrer Reflektionen berechnet und nicht umgekehrt geschaut, was überhaupt am jeweiligen Bildschirm-Pixel ankommt. Beide haben zwar ihre Sichtbarkeits-Optimierungen, aber unterscheiden sich grundlegend vom Ansatz. Vom Ergebnis sieht man ja, dass sich beide Welten mehr und mehr annähern. Indirekte Beleuchtung hat man in Spielen entweder vorberechnet oder man betrügt durch bestimmte 3d-Volumen, Voxel und/oder aufwändigere Shader.

Die Unterschiede sieht man ja teilweise nur im Detail (wie oft spiegelt sich etwas, wie oft wird Licht reflektiert, wie scharf oder soft sind die Kanten von Schatten oder Licht, funktionieren Flächenlichter usw.)

Der Laie wird kaum die Unterschiede bemerken, jede Wette.

Inso 16 Übertalent - P - 5810 - 9. Januar 2019 - 9:49 #

Na Super, Raytracing mit 15FpS sieht bestimmt ganz fantastisch aus ;)

LRod 16 Übertalent - - 5969 - 9. Januar 2019 - 10:08 #

Da kannst du jedenfalls jedes einzelne Bild genießen - bei 120 Fps kann man die Einzelbilder ja gar nicht würdigen :-)

Ernsthaft, diese Generation setze ich aus, der Leistungssprung steht in keinem Verhältnis zum Preis, wenn man bereits eine gute Karte der letzten Generation hat.

FastAllesZocker33 16 Übertalent - P - 4701 - 9. Januar 2019 - 10:59 #

Ich sehe das auch so. Sobald ein Leistungssprung von 100% da ist gegenüber meiner Alt-Karte und die für einen angemessenen Preis zu haben ist, schlage ich zu. Das wird aber erfahrungsgemäß noch mindestens 2 Jahre dauern.

Sp00kyFox 19 Megatalent - 13544 - 9. Januar 2019 - 10:44 #

die raytracing-leistung entspricht nahezu einer RTX 2070. es dürfte daher schon vernünftig nutzbar sein. das einzige spiel bisher mit diesem feature ist allerdings Battlefield 5 und bei einem MP-shooter willste nicht unbedingt performance dafür opfern. muss man mal sehen wie das bei zukünftigen spielen aussieht.

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 10:56 #

Bin da echt gespannt. Wir stehen da ja wirklich noch ganz am Anfang. Hoffe AMD braucht für seine Technik nicht zu lange. Die nächste Generation sollte dann die erste sein, die auf einem Niveau arbeitet, dass Raytracing auch im Alltag ankommen könnte.

Inso 16 Übertalent - P - 5810 - 9. Januar 2019 - 11:32 #

Ich stelle mal die Behauptung auf, das entweder die nächste Konsolengeneration RT unterstützen wird, oder es sonst wie immer am PC laufen wird: kaum einer wird den Zusatzaufwand an Programmierung auf sich nehmen, wenn es nicht durch NVidia subventioniert wird, sprich RT wird nen Nischendasein führen und nur mal zu Propagandazwecken irgendwo auftauchen..
Für die NextGen könnte es aber schon zu spät sein, vor allem wenn wieder AMD-SoCs verbaut werden und die DevKits langsam ausgeliefert werden oder schon wurden. Auch der Leistungshunger spricht für mich eher dagegen das es da schon zu finden sein wird. Wir werden sehen..

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 11:44 #

Laut Gerüchten ist die angepasste Konsolen-Hardware von AMD schon soweit fertig. Ich erwarte von daher nichts davon in der nächsten Konsolen Generation.

vgamer85 19 Megatalent - - 17025 - 9. Januar 2019 - 18:05 #

Jup, ich sag nur 3D Vision...total vergessen. Hab 2012 eine mit Monitor geholt...ein Jahr später war 3D Vision tot.

Severin (unregistriert) 9. Januar 2019 - 18:18 #

Zum Glück ist Echtzeit-Raytracing aber nix nVidia Proprietäres. Es wird allerdings noch dauern bis ein gemeinsamer Standard gefunden wird und das ganze dann in nennenswerter Verbreitung in Spielen wieder zu finden ist.

MachineryJoe 17 Shapeshifter - P - 6823 - 10. Januar 2019 - 9:36 #

Ja, das finde ich auch sehr schade. Habe hier 2 Brillen und 2 3d-Vision Monitore und irgendwie ist das ganz in Vergessenheit geraten. Dabei fand ich die Technik deutlich realistischer als diese 3d-Formate im Kino und im TV. Die Spiele damit haben richtig Spaß gemacht.

Inso 16 Übertalent - P - 5810 - 9. Januar 2019 - 11:27 #

RT-Leistung mag gleich sein, aber die Frames sind ja durch die Technik entsprechend schon niedriger. Wenn das Flagschiff fHD (mit Glück WQHD) 60FpS schafft, brauche ich keine Mittelklasse-Karte mit der gleichen Technik ;)
Gerade bei Shootern gebe ich dir recht, allein schon die 60FpS sind ja keine tolle Option sofern man nen Monitor hat der auch mehr schafft..

Wesker 15 Kenner - 3019 - 9. Januar 2019 - 12:15 #

Mir reicht meine 1060 6GB aktuell noch ... noch.
Die derben Preise will ich aber nicht zahlen, sehe ich nicht wirklich ein. Spiele sowieso nur in HD, aber auf 144Hz.

BIOCRY 16 Übertalent - P - 5073 - 9. Januar 2019 - 12:21 #

Meine 1070 ist bei meinem guten alten 22"LG (1680x1050/60Hz) immer noch total unterfordert ;)

Lacerator 16 Übertalent - 4862 - 9. Januar 2019 - 13:48 #

Wenn dir 1680x1050 reicht, dann ja. Ich habe irgendwann den "Fehler" gemacht, mit Downsampling anzufangen und seitdem ist mir das native Full HD auf meinem 23,6" Monitor in den meisten Fällen zu grobpixelig. Zumindest bei Spielen, die keine anständigen AA-Modi bieten. Dank nVidias DSR (Dynamic Super Resolution) laufen Spiele bei mir aktuell mindestens in WQHD. Ältere Spiele sogar in 4K. Obendrein widerstrebt es mir zutiefst, einzelne Grafikeinstellungen unterhalb des Maximums zu belassen. ;)

Da kommt meine GTX 1070 des öfteren an ihre Grenzen und deshalb liebäugle ich bereits mit einer RTX 2080. Aber die Preise sind schon deftig. :P

vgamer85 19 Megatalent - - 17025 - 9. Januar 2019 - 18:08 #

Also spielst du WQHD auf nem Full HD Bildschirm?Was muss man einstellen?

Edit...nicht mal full hd

Habe 27 zoll full hd

Lacerator 16 Übertalent - 4862 - 9. Januar 2019 - 22:22 #

Hast ne PN.

FastAllesZocker33 16 Übertalent - P - 4701 - 9. Januar 2019 - 13:50 #

Warum sparst Du am Monitor, wenn Du so eine Grafikkarte hast? Da schaust Du doch die ganze Zeit drauf und merkst Qualitätsverbesserungen sogar beim Tippen in Word!

Lacerator 16 Übertalent - 4862 - 9. Januar 2019 - 14:09 #

Zukunftstauglichkeit (bezogen auf die GraKa) nennt man das. :) Ich kann nicht für ihn sprechen, aber ich persönlich möchte einfach nicht so einen Riesenmonitor mit 27" und mehr haben. Allein schon weil ich platzbedingt recht nah dransitze.

Ganon 24 Trolljäger - P - 52029 - 9. Januar 2019 - 14:10 #

Aber noch nicht mal FullHD? Das würde ich mir heute nicht mehr freiwillig antun.

Lacerator 16 Übertalent - 4862 - 9. Januar 2019 - 14:23 #

Ich bin auch mit dem letzten Monitor-Kauf von 1680x1050 auf Full HD bzw. von 22" auf 23,6" umgestiegen und der optische Unterschied hielt sich doch (sicher aufgrund der größeren Diagonale) sehr in Grenzen.

PraetorCreech 17 Shapeshifter - P - 7784 - 9. Januar 2019 - 14:59 #

Ich zähle mich eigentlich auch zu den (vorrangig) PC-Zockern, aber es gab in den letzten 10 Jahren einfach keinen Grund meinen Samsung Monitor mit seinen 1680x1050 zu ersetzen. Ich wollte schon lange mal auf FullHD umsteigen, aber ich schmeiße doch keinen funktionierenden Monitor weg. Schon gar nicht, wenn er ansonsten alles tut, was ich will. Aber nun könnte es soweit sein. Ich brauche einen HDMI Anschluss am Monitor, und den bietet er nicht. Nun habe ich endlich einen Sachgrund gefunden. Zu meinem Geburtstag im Februar gibt es vermutlich einen neuen Monitor :)

paschalis 18 Doppel-Voter - P - 11558 - 9. Januar 2019 - 15:06 #

Warte mal lieber ab, ob sich dieser neumodische HDMI-Anschluß überhaupt durchsetzt ;-)

PraetorCreech 17 Shapeshifter - P - 7784 - 9. Januar 2019 - 15:29 #

Ha, fast wollte ich lachen, aber dann fielen mir die ganzen unterschiedlichen HDMI Standards ein. Dank denen habe ich absolut keine Ahnung, worauf ich achten muss. Für FullHD ist HDMI 1.4 die richtige Schnittstelle, oder habe ich von HDMI 2.0 einen Vorteil? Geben tut's beides an FullHD Monitoren.

makroni 15 Kenner - P - 2802 - 9. Januar 2019 - 16:39 #

Da es, so weit ich es weiß, kein HDR bei FullHD Monitoren gibt und du ja nicht auf 4K umsteigst, sollte HDMI 1.4 reichen.

Noodles 24 Trolljäger - P - 54708 - 9. Januar 2019 - 16:09 #

Ich bin auch erst letztes Jahr auf FullHD gewechselt, als mein 1680x1050-Monitor (übrigens auch ein Samsung) kaputtgegangen ist. Bin irgendwie auch so eingestellt, dass ich nix austauschen will, was noch gut funktioniert. :D

Ganon 24 Trolljäger - P - 52029 - 9. Januar 2019 - 16:18 #

Ja gut, mein letzter Monitor vor dem FullHD war noch in 4:3. Das war vor 5 Jahren, da war das Upgrade echt mal fällig. Nun liebäugele ich zwar mit dem einen doer anderen Hardware-Upgrade, aber den Monitor behalte ich schon noch eine Weile. ;-)

Novachen 19 Megatalent - 14531 - 9. Januar 2019 - 12:32 #

Da hat man schon eine TITAN X und muss trotzdem immer wieder eine neue Version von dieser kaufen, nur damit man auch Raytracing hat ^^

NordishBen 15 Kenner - P - 3834 - 9. Januar 2019 - 13:30 #

Erstmal abwarten was die GTX 1160 bringen und wieviel sie kosten wird, ebenso was AMD an neuen Karten auf den Tisch legen wird.

PraetorCreech 17 Shapeshifter - P - 7784 - 9. Januar 2019 - 13:30 #

Ich hoffe der Launch der Karte in der nächsten Woche wird für mich die Frage nochmal spannend machen, ob ich mir eine Radeon Rx590 oder eine Vega56 zulege. Wenn die Boardpartner mit dem Preis nicht übertreiben, dann sollte doch die meist langsamere Vega noch was günstiger werden.

Lacerator 16 Übertalent - 4862 - 9. Januar 2019 - 14:32 #

Und pünktlich zu dieser Nachricht ist die RTX 2080, die ich momentan auf dem Schirm habe, wieder um 30€ (jetzt 649€) im Preis gesunken. Da bei mir aktuell noch kein dringender Handlungsbedarf besteht, werde ich weiter geduldig abwarten. :)

tailssnake 17 Shapeshifter - P - 6145 - 9. Januar 2019 - 15:10 #

Mittelklasse für 400€ ist arg lächerlich und für die meisten Käufer viel zu teuer.
Gut wenn man nicht auf CUDA angewiesen ist, dann kann man auch zu AMD gehen.

PraetorCreech 17 Shapeshifter - P - 7784 - 9. Januar 2019 - 15:31 #

Nur, dass bei denen die Leistung der RTX 2060 je nach Spiel und eingesetztem OS gerade mal von der Vega64 getoppt wird. Und die wird von AMD als High-End vermarktet und ist auch noch teurer. Hier fehlt ganz gewaltig die Konkurrenz.

Aladan 24 Trolljäger - P - 52405 - 9. Januar 2019 - 15:45 #

Ja, das stimmt. Nach der Fertigstellung der nächsten Konsolenhardware nimmt AMD jetzt hoffentlich mal wieder fahrt auf.

PraetorCreech 17 Shapeshifter - P - 7784 - 9. Januar 2019 - 16:03 #

So eine neue Architektur ist halt nicht so schnell aufgebaut. Ryzen wurde ja auch nicht an einem Tag gebaut... ähhh, entwickelt. Ich habe schon gehofft nun zur CES etwas handfestere Infos zu Navi zu bekommen, aber irgendwie war da die Woche bisher noch nix dolles dabei.
Gut, so wichtig ist es für mich eigentlich auch wieder nicht. Zu Weihnachten kam ein VR Headset ins Haus, nun muss eine neue Grafikkarte her, und nicht erst zur Jahresmitte, wenn Navi dann mal mit ein wenig Glück erscheint.

Despair 17 Shapeshifter - 6807 - 9. Januar 2019 - 16:06 #

Ich warte ja immernoch drauf, dass sich Raytracing endlich auf dem Amiga durchsetzt...

TheRaffer 19 Megatalent - - 18799 - 9. Januar 2019 - 19:00 #

Zum Glück vermisse ich diese Technik bei meinen Spielen noch nicht. Sollte es soweit kommen, werde ich versuchen mich an diese Karte zu erinnern...

JensJuchzer 19 Megatalent - P - 17735 - 9. Januar 2019 - 23:02 #

Spannend was sich hier für eine Diskussion entwickelt... hätte ich nicht erwartet.

Goremageddon 14 Komm-Experte - 2608 - 10. Januar 2019 - 13:41 #

Interessant und wissenswert für mich allerdings wirklich uninteressant, zumindest vorerst. Spiele nur mit 1920x1080 und das macht mein mittlerweile recht betagtes System, auf High/Ultra noch gut mit. Ich sehe da keinen Grund zu investieren. Zumal ein Bekannter sich die RTX2070 gekauft hat und während des spielen von BattlefieldV von Raytracing nicht wirklich was mitbekommt. Dazu müsste man wohl sehr genau hinsehen, bzw. sich die Zeit dazu nehmen was gerade in einem MP-Shooter eigentlich nie vorkommt. Nimmt man sich die Zeit allerdings sei es schon sehr beeindruckend. Ich vermute das die Technik vermutlich in etwas ruhigeren Spielen, bzw. Solotiteln punkten wird da ich zumindest in vielen solcher Titeln gerne mal stehen bleibe, Landschaften und Umgebung anschaue etc. Alles in allem auf jeden Fall, für mich kein Grund direkt zu investieren.

Mitarbeit