Tod dem Tearing! Nvidias G-Sync soll "Bildrisse" verhindern

Bild von Green Yoshi
Green Yoshi 36175 EXP - 22 Motivator,R10,S4,J10
Loyalist: Ist seit mindestens einem Jahr bei GG.de dabeiAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertDieser User hat uns an Weihnachten 2017 mit einer Spende von 5 Euro unterstützt.Dieser User hat uns an Weihnachten 2015 mit einer Spende von 5 Euro unterstützt.Debattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenDieser User hat uns zur TGS 2016 Aktion mit einer Spende von 5 Euro unterstützt.Dieser User hat uns zur TGS 2017 Aktion mit einer Spende von 5 Euro unterstützt.Diskutierer: Hat 1000 EXP durch Comments erhaltenTop-News-Veteran: Hat mindestens 50 Top-News geschriebenGG-Spender: Hat eine Spende von 5 Euro an GG.de geschickt

19. Oktober 2013 - 13:44 — vor 8 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!

Nvidia hat gestern eine auf den Namen G-Sync getaufte Technik vorgestellt, mit der Tearing und sichtbare Framerate-Einbrüche der Vergangenheit angehören sollen. Dafür braucht es mindestens eine Nvidia-GTX-660-Grafikkarte sowie einen passenden Monitor. Letztere sollen ab dem ersten Quartal 2014 erhältlich sein. Darüber hinaus wird Nvidia Ende dieses Jahres einige G-Sync-Module an professionelle Modder ausliefern, die diese in Asus-VG248QE-Monitore verbauen werden. Wer möchte, kann das Modul aber auch einzeln bestellen und selber in den eben genannten Asus-Monitor einbauen.

Ein G-Sync-Display soll die dynamische Anpassung der internen Refreshrate an die Framerate des Spiels ermöglichen. Das bedeutet, dass in Zukunft die Grafikkarte den Takt angibt, und nicht mehr das Display. Sobald ein neuer Frame im Frontbuffer liegt, erhält demnach das Display ein Signal und der Frame wird augenblicklich dargestellt. Damit gäbe es kein Zerreißen des Bildes (Tearing) mehr, und Framerate-Einbrüche wären kaum noch spürbar. Auch wenn ein Spiel 60 Frames pro Sekunde nicht halten kann, soll sich die wahrgenommene Framerate deutlich konstanter anfühlen.

Tearing entsteht wenn der Puffer der Grafikkarte das fertige Bild nicht rechtzeitig an den Monitor sendet und so "mitten im Bild" von einem Frame zum nächsten gewechselt wird. Oberhalb ist der ältere, unterhalb der neuere Frame sichtbar. Das Bild wirkt zerrissen. Das von der Grafikkarte übertragene Bild hat somit (irgendwo) eine horizontale Teilung; oberhalb ist das ältere, unterhalb das neuere Frame sichtbar.

Tim Sweeny, einer der Gründer von Epic Games, zeigt sich von Nvidias Ankündigung begeistert:

Das ist der größte Sprung bei Spielemonitoren, seitdem wir von SD auf HD gewechselt haben.

Auch John Carmack äußerte sich ähnlich euphorisch:

Sobald du auf einem G-Sync-fähigen Monitor gespielt hast, wirst du nie mehr zurückgehen wollen.

Andere Prominente der Spielebranche wie Mark Rein, Mitgründer von Epic, und Johan Andersson, der Erschaffer von DICEs Frostbite Engine, sind ebenfalls voll des Lobes über die neue Technologie. Darüber, wie viel diese den Kunden am Ende kosten wird, schweigt Nvidia allerdings noch. Es ist keine besondere Begabung notwendig, um zu prophezeien, dass die Pioniernutzer stärker zur Kasse gebeten werden dürften, bis die Stückzahlen groß genug sind, um in für jeden bezahlbare Regionen zu kommen. Wenn sich denn die Technologie wirklich bewährt ...

Novachen 19 Megatalent - 14947 - 19. Oktober 2013 - 13:51 #

Darauf freue ich mich tatsächlich. Bin da auch sehr gespannt.

Bleibt nur die Hoffnung, dass sowas auch ganz schnell in vernünftige Monitore rein kommt... auf Full HD will ich von 1440p nämlich auch nicht zurück.

Immerhin wäre das auch tatsächlich mal nen Grund meine SLI 580 GTX aufzurüsten. Für Spiele reicht die 580 im SLI ja noch Dicke auf 2560x1440.

Falcon (unregistriert) 20. Oktober 2013 - 2:16 #

Das mit den "vernünftigen Monitoren" kannst Du Dir gleich wieder abschminken. Das Zeug funktioniert nur bei TN Panelen. Nichts mit IPS oder OLED.

Auf gut Deutsch: G-Sync ist totaler Rotz und DOA (Dead on Arrival), wie man so schön sagt.

Sp00kyFox (unregistriert) 20. Oktober 2013 - 2:56 #

nicht, dass gamer ohnehin eher zu TN paneln greifen. von daher ist das kein argument, dürfte es sich eh an diese zielgruppe richten.

Falcon (unregistriert) 20. Oktober 2013 - 3:04 #

Gamerkiddies vielleicht. Aber das scheint auch genau die richtige Zielgruppe zu sein. Die lassen sich jeden Dreck aufschwatzen, zahlt ja eh Papi.

Sp00kyFox (unregistriert) 20. Oktober 2013 - 4:04 #

ach bitte. du musst jetzt nicht irgendwelche billigen vourteile von dir geben, wenn du nichts mehr zu sagen hast. die zeiten sind schon lange vorbei, in denen pc-spieler nur pubertierende jünglinge waren.
abgesehen davon, sind eben nun mal monitore mit den speziellen geschwindigkeitsanforderungen und/oder hoher hz-anzahl gerade die, die mit einem tn-panel daherkommen. das ist technisch bedingt, kein grund so schnippisch zu reagieren.

Falcon (unregistriert) 21. Oktober 2013 - 4:17 #

Um mal Deiner Logik zu folgen: Dann bin ich also kein Spieler, weil ich IPS Panele bevorzuge!?
Blickwinkelstabilität & Farbtreue sind also weniger wichtig also vermeintlich nicht existenter "Inputlag" oder 120Hz!?

Decorus 16 Übertalent - 4286 - 21. Oktober 2013 - 14:30 #

"Blickwinkelstabilität & Farbtreue sind also weniger wichtig also vermeintlich nicht existenter "Inputlag" oder 120Hz!?" Im kompetitiven Bereich? Ja. Wer nicht bei Turnieren o.ä. um Preisgelder spielt, dem kann das natürlich herzlich egal sein.

Falcon (unregistriert) 21. Oktober 2013 - 15:55 #

"Kompetitiver Bereich".
Ich lachte hart.

Decorus 16 Übertalent - 4286 - 21. Oktober 2013 - 16:23 #

Ja, richtig. Warum auch das passende Werkzeug für ein spezielles Einsatzgebiet wenn man zweitklassige all-in-one Lösungen haben kann.

Falcon (unregistriert) 21. Oktober 2013 - 16:49 #

Selten so einen dämlichen Schwachsinn gelesen. TN-Panele sind dafür da um der breiten Masse billige (!) Monitore zu liefern, nicht für Qualität. Generell kann man alles wo "Gamer" drauf steht sowieso in die Tonne kloppen.

Und um den Punkt weiter auszuführen, der oben angesprochen wurde: Nehmen wir mal den Punkt außen vor, dass ich es für absolut unsinnig halte, dass jemand tatsächlich nutzen aus dem Unterschied zwischen bspw. einem 60Hz und einem 120Hz Monitor ziehen kann. (Wir reden hier schließlich von Unterschieden, die um ein vielfaches geringer als die menschliche Reaktionszeit ist, selbst bei "trainierten" Spielern.)
Angesichts der Tatsache, dass TN in eigentlich allen Bereichen PVA oder IPS Technik hinterher hinkt (Solchem Unsinn wie 120Hz mal abgesehen) wirkt Deine Aussage reichlich lächerlich.

Bei Turnieren (Und wir reden hier nicht von Klein Peters 8-Mann LAN im Keller des Elternhauses, sondern von so Sachen wie den Intel Friday Night Games etc.) wird ohnehin überall das gleiche Equipment verwendet. Also ist es doch scheißegal ob der Monitor 60 oder 120Hz darstellen kann.

Oder andersrum: Glaubt jemand ernsthaft, dass ein Spieler den anderen Spieler schlagen kann, nur weil sein Monitor 120Hz statt 60Hz darstellt!? Technik ersetzt keinen "Skill".

Als ob das ganze Thema nicht ohnehin schon lächerlich genug wäre... Über "eSport" im Allgemeinen lasse ich mich gar nicht erst aus...

Decorus 16 Übertalent - 4286 - 21. Oktober 2013 - 17:19 #

Um nur einen Einwand zu bringen: Warum sollte es für die Reaktionszeit bitte keinen Unterschied machen, wie "schnell" ein verändertes Frame sichtbar ist?

Falcon (unregistriert) 21. Oktober 2013 - 17:37 #

Weil die Reaktionszeit um ein vielfaches höher ist. Bringt also gar nix mehr/schneller Informationen auf dem Monitor bereit zu stellen, wenn Du sie gar nicht verarbeiten kannst...

Decorus 16 Übertalent - 4286 - 21. Oktober 2013 - 17:41 #

Die Reaktionszeit ist doch die Zeit, die du brauchst, um auf einen Reiz zu reagieren. Je eher der Reiz da ist, desto eher setzt deine Reaktion ein.

ChuckBROOZeG 20 Gold-Gamer - 21187 - 21. Oktober 2013 - 17:50 #

Um mal in den Kreis einzubrechen. Damit ein Reiz entstehen kann auf den du reagieren kannst muss sich was ändern. Wenn du aber keinen Unterschied zwischen 60 und 120 Hz sehen kannst (ja auch bei Schwenks ist das jenseits der 60 bei wenigen möglich bei den meissten aber eher unwahrscheinlich) macht es auch keinen Unterschied ob ob du einen oder 2 Frames siehst bevor der Reiz zum reagieren ausgelöst wird.
Ich persönlich würde ja die Grenze bei 90-100Hz setzen aber auch das geht mit höherwertigen Panels und nicht nur mit TN Grütze.

Decorus 16 Übertalent - 4286 - 21. Oktober 2013 - 17:58 #

Ja, wenn du keinen Unterschied hast, dann kannst du auch nicht reagieren. °_^ Und ob du bei 60hz <-> 120hz Unterschiede wahrnimmst, ist halt von Mensch zu Mensch unterschiedlich. Imho ist das wie bei gutem Hifi-Equiment (nicht das Goldkabel Voodoo), wenn man sich dran gewöhnt will mans kaum missen.
IPS hat viele Vorzüge (war nicht sogar der Monitor mit dem geringsten Inputlag irgendein E-IPS Panel?) Aber einfach so sämtliche Vorteile wegzureden und als Schwachsinn zu bezeichnen war halt so einseitig, das konnte man nicht so stehen lassen.

Falcon (unregistriert) 21. Oktober 2013 - 18:05 #

Ich würde 120Hz ja durchaus mit im Mondschein von Jungfrauen nach einem geheimen Rezept hergestellten Voodoo-Kabeln aus dem HiFi Bereich vergleichen... (Mit dem einzigen Unterschied, dass 120Hz technisch tatsächlich messbar sind...)

Decorus 16 Übertalent - 4286 - 21. Oktober 2013 - 18:23 #

Siehe das Paper unten, es ist nicht nur die schnellere Darstellung. Und nur weil du die Vorteile für Schwachsinn hälst, sind sie es noch lange nicht.

ChuckBROOZeG 20 Gold-Gamer - 21187 - 21. Oktober 2013 - 18:12 #

Also sorry Menschen die mehr als 60Hz wirklich wahrnehmen sind im Promillebreich vertreten. Darauf ne Argumentation aufbauen ist schon irgendwie weired. Vor allem wenn das auch noch das einzige Pro Argument (neben dem Preis) ist. Ok mit GSync dann 2 ^^.

Aber ich muss gestehen IPS mit über 100hz gibt es derzeiht nur in der Theorie ^^. Abgesehen natürlich von "Übertakteten" Geräten.

Decorus 16 Übertalent - 4286 - 21. Oktober 2013 - 18:22 #

Nein sind sie nicht:
http://www.mpi-inf.mpg.de/resources/3DTemporalUpsampling/3DTemporalUpsampling.pdf
Ausserdem sagte ich nicht, dass es das einzige Pro Argument ist. Wie oben in dem Paper ist da immer noch der verringerte Blur und den *wirst* du merken. (Wobei es hier natürlich auch "diminishing returns" gibt.

Sp00kyFox (unregistriert) 21. Oktober 2013 - 18:47 #

richtet sich nicht an Chuck sondern an die ganze obige diskussion, weil hier auf einmal so auf esport eingegangen wird. eine höhere hz-anzahl kann eben nicht nur mehr bilder pro sekunde liefern, es schafft auch die einzelnen frames in bewegungsszenen wesentlich schärfer darzustellen, ohne die sonst üblichen leicht verschwommenen konturen. auch das sogenannte overdrive bei 60hz-monitoren (was zu hässlichen überschwingern/halos führt) fällt damit weg. siehe auch:

http://www.heise.de/ct/artikel/LCD-Monitore-60-Hz-vs-60-Hz-mit-Overdrive-vs-120-Hz-1972038.html

natürlich verbessert das nicht den skill und auch nicht die eigentliche reaktion des spielers, es erhöht aber den visuellen genuss und machts angenehmer fürs auge. das ist genau derselbe effekt im übrigen, den leute auch feststellen bei fernseh-geräten mit features wie "fluid motion" oder wie das beim jeweiligen hersteller auch genannt wird. ob das schärfere bild dann auch zum besseren erkennen und reagieren führt, sei mal dahin gestellt.

und abgesehen mal von der ganzen esport-geschichte und der individuellen reaktion, die ohnehin vom training abhängt, funktioniert die visuelle wahrnehmung bei allen menschen in etwa gleich. weder kann der mensch nur bis zu 25hz erkennen (alternativ auch immer wieder gerne behauptet 23.976, 24, 25 oder 29.97), noch ist bei 60hz schluss. das auge richtet sich schließlich nicht nach technischen standards. viel eher wird in der psychologie als durchschnittswert in etwa 100hz angegeben.
daher ist es auch für laien ein einfaches den unterschied zwischen 60hz und 120hz geräten festzustellen. schwieriger dürfte es schon sein zwischen 120hz und 144hz.

schlussendlich kann ich da nur den artikel zu high-frequency-monitoren in der letzten c't (22/2013) empfehlen und den zu gsync auf anandtech:

http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

Falcon (unregistriert) 21. Oktober 2013 - 19:52 #

Das Auge nimmt verschwommenere Einzelbilder in normaler Frequenz als flüssiger wahr als gestochen scharfe Einzelbilder in höherer Frequenz. Deswegen sind Bewegungsframes bei Filmen in aller Regel auch leicht verschwommen.

Abgesehen davon habe ich nie etwas gegen die Verbesserungen im Bezug auf Tearing und - was besonders interessant ist - das Verschwimmen von bspw. Text bei Bewegung auf TFTs, welches G-Sync verhindern soll, gesagt. Es ging lediglich um die Tatsache, dass TN Panele Schrott sind und sich nVidia aus meiner Sicht das G-Sync in der jetzigen Form (Proprietär UND auf TN Panele beschränkt) and den Hut stecken kann. Wenn solche Verbesserungen in einen offenen Standard einfließen würden und schlussendlich jeder Monitor dies in Zukunft bietet, wäre ich hocherfreut. Das wird aber nicht passieren. G-Sync ist IMHO DOA (Dead on Arrival).

Sp00kyFox (unregistriert) 21. Oktober 2013 - 22:22 #

da kann ich dir nur widersprechen. frames die aus bewegten szenen stammen sind in filmen verschwommen, weil dort die aufgrund der geringen bildrate zu lange belichtung dazu führt, nicht weil es besser aussieht. diesen effekt gibt es bei künstlich gerenderten bildern erst mal nicht, solange du nicht einen motion blur hinzufügst.

deine these stimmt nicht, siehe auch das von Decorus gepostete paper. ganz im gegenteil wirkt bewegtes bild umso besser, je höher die bildrate und je schärfer das bild ist. denn damit entspricht es eher dem tatsächlichen sehen, bei dem unser auge bei weitem nicht so lange "belichtungszeiten" hat wie etwa bei filmaufnahmen. nicht umsonst wird eine höhere bildrate bei filmen angestrebt und fernseh-hersteller bemühen sich um frame-interpolationstechniken um einen flüssigeren sehgenuss zu bieten.
haben doch gerade etwa zu anfang (und so einige immer noch) auf röhrenmonitore geschworen, weil dort höhere frequenzen üblich sind und keine konturen verwischen bei bewegungen.

insofern ist es auch keineswegs ein fakt, dass tn panels schrott wären. sie haben im gegensatz zu anderen typen einfach andere eigenschaften. und da es sich bei ihnen um die schnellsten handelt, sind sie denkbar geeignet für das gsync-verfahren ;)

Falcon (unregistriert) 22. Oktober 2013 - 0:48 #

> nicht umsonst wird eine höhere bildrate
> bei filmen angestrebt und fernseh-hersteller
> bemühen sich um frame-interpolationstechniken
> um einen flüssigeren sehgenuss zu bieten.

Ohja, Soap-Opera-Effekt ahoi. Das Experiment "The Hobbit" dürfte für viele wohl die erste und die letzte Berührung damit gewesen sein. Das sieht einfach scheiße aus.

> haben doch gerade etwa zu anfang (und so
> einige immer noch) auf röhrenmonitore
> geschworen, weil dort höhere frequenzen
> üblich sind und keine konturen verwischen
> bei bewegungen.

Das liegt aber nicht an der Wiederholfrequenz, sondern daran dass eine Ionen-Röhre die Bilder nur sehr sehr kurz beleuchtet, während bei TFTs das Bild dauerhaft beleuchtet wird.
Gerade im Zusammenhang mit der G-Sync Vorstellung hat John Carmack ein sehr interessantes Interview zu dem Thema gegeben:
http://www.youtube.com/watch?v=gbW9IwVGpX8&feature=player_detailpage#t=12

Sp00kyFox (unregistriert) 22. Oktober 2013 - 1:37 #

auch bekannt als gewohnheitseffekt. bisherige generationen sind halt konditioniert auf ruckelnde filme. ist halt dasselbe wie mit dem wechsel von schwarz/weiß zu farbe. gegen super flüssig aussehende sportübertragungen dank doppelter bildrate gibts lustigerweise keine beschwerden ;)

und ja, die tft-technik macht den umstand der niedrigen frequenzraten noch schlimmer. passend zum thema ist nämlich vsync für die meisten erst mit den einzug der flachbildschirme ein thema geworden. obwohl tearing prinzipiell auch bei röhren vorhanden ist, haben es dort viele nicht gesehen (kam ja auch niemand auf die idee, ihren monitor in so niedrigen und damit flimmernden raten wie 60hz laufen zu lassen). auch diesbzgl sind die jetzt verfügbaren hohen frequenzraten bei tfts begrüßenswert.

Falcon (unregistriert) 22. Oktober 2013 - 1:56 #

"Gewohnheitseffekt"!?
TV Sendungen gibt es seit mindestens 60 Jahren. Ergo auch die 50/60Hz Technik/Übertragung. Filme noch viel länger.
Das Argument ist totaler Unsinn!

Dass Tearing ein unschönes und tatsächlich existentes Problem ist, habe ich nie abgestritten. Ebensowenig die verwischende Schrift bei sich bewegendem Text. Ersteres ist ein generelles Problem, zweiteres ein Problem speziell von TFT Technik.
Da bin ich dafür, dass diese Probleme angegangen werden.

Aber 120Hz? Totaler Unsinn.

Und an dem Tag an dem es nur mehr 48fps/72fps Filme geben wird, werde ich das letzte mal einen (neuen) Film ansehen.

Sp00kyFox (unregistriert) 22. Oktober 2013 - 2:47 #

ich bitte dich. dir sollte schon klar sein, dass die prinzipielle wiederholungsfrequenz erst mal nichts über die bildrate der ausgestrahlten sendung sagt. denn spielfilme werden seit jeher mit niedrigen bildraten produziert und auch im fernsehen so gezeigt, da helfen die 50/60hz auch nicht weiter. und im kino natürlich sowieso. nur sport, liveübertragungen und fernsehshows haben da vom interlaced modus profitiert und tatsächlich zeitlich verschiedene halbbilder geliefert.

>Da bin ich dafür, dass diese Probleme angegangen werden. Aber 120Hz? Totaler Unsinn.

ob es nun 120hz sind oder die schaltzeiten entsprechend schneller sind und das gerät auf 60hz eingestellt ist, kommt aufs selbe hinaus. mit tricks wie übersteuerung durch overdrive kommt man eben nur so weit und hat ungewünschte nebeneffekte.
vlt schaffen sie es ja die geschwindigkeit auch in ips-panels zu erreichen, dann wärste ja wohl auch zufrieden. atm siehts jedenfalls nicht danach aus, da die prinzipielle technik das nicht richtig hinbekommt (die geräte die es da gibt sind eher enttäuschend).

und ich würde mir da keine sorgen machen. es werden ja auch noch schwarz/weiß-filme produziert und mit analog-kameras aufgenommen. hängt halt immer vom regisseur und seinen technischen vorlieben ab. abgesehen davon kann man das zuhause natürlich eh anpassen wie man will (etwa mit avisynth). dann schmeißte halt jedes zweite/dritte frame weg, haust n bisschen künstliches motion blur dazu und bist dann wieder bei deinen geliebten 24fps, so einfach ist das ^^

Sp00kyFox (unregistriert) 21. Oktober 2013 - 15:44 #

wer vor allem im hinblick auf spielen ein monitor benutzen will und keine professionelle bild/video-bearbeitung macht.. jup, da sind die vorteile in blickwinkelstabilität und farbtreue von ips gegenüber tn zu vernachlässigen.

Solala (unregistriert) 21. Oktober 2013 - 9:05 #

Woher weißt du das? Eigentlich sollte doch die Ansteuerung des Panels unabhängig von seiner Konstruktion sein. Wenn G-Sync nur bei TN-Panels funktioniert, wäre das nämlich wirklich, wirklich Schade. TN kommt mir niemals auf den Tisch, aber ein wirksamer Tearing-Schutz wäre genial.

Auf der anderen Seite habe ich mir gerade zwei 800-Euro-IPS-Display gekauft, so dass ich in den nächsten Jahren wahrscheinlich eh nicht wechseln würde (wobei es da ja dieses Modding-Modul gibt). Vielleicht gibt es ja in 5 Jahren etwas G-Sync-ähnliches, offenes, und auch für IPS.

Sp00kyFox (unregistriert) 21. Oktober 2013 - 15:48 #

wird daran liegen, dass gsync nur sinn macht, wenn der monitor einen hohen frequenzspielraum hat, sprich weit mehr als nur 60hz liefern kann. dafür sind tn-panels wesentlich besser geeignet.

Falcon (unregistriert) 21. Oktober 2013 - 15:56 #

> Woher weißt du das?

Offizielle Aussage von nVidia.

Solala (unregistriert) 22. Oktober 2013 - 9:05 #

Da hast du wohl was verwechselt oder man ist sich nicht ganz einig:

"The first monitors with G-Sync are gaming-oriented, and most are capable of fairly high refresh rates. That generally means we're talking about TN panels, with the compromises that come along with them in terms of color fidelity and viewing angles. However, the G-Sync module should be compatible with IPS panels, as well. As the folks who are overclocking their 27" Korean IPS monitors have found, even nice IPS panels sold with 60Hz limits are actually capable of much higher update rates."

Ihr Name: Name (unregistriert) 19. Oktober 2013 - 14:07 #

Hat hier jemand Probleme mit Tearing und Framerateeinbrüchen die NICHT an schlecht programmierten Spielen liegen?
Und dagegen soll ich mir HW kaufen? ehm ja...

Ich weiß allerdings nicht, in wie weit ich die Aussagen der "Bewunderer" ernst nehmen soll.

"Das ist der größte Sprung bei Spielemonitoren, seitdem wir von SD auf HD gewechselt haben."
Ich glaube dazwischen sind wir bei den Monitoren noch von Röhre auf Flachman umgestiegen, oder? Zumindestens konnte meine 2. Röhre problemlos 1600x1200 und die 2. letzte Röhre hatte eine höhere Auflösung als die ganzen tollen 1080p Grütze von Heute.
Grütze, weil ich nen 1200p Flachmann habe und wir aus unbekannten Gründen bei den Monitoren einfach mal so 120 Zeilen einspaaren mußten.

Novachen 19 Megatalent - 14947 - 19. Oktober 2013 - 14:16 #

Na ich denke es geht bei sowas eher um das Framelimit was bei dem normalen Monitor eben bei 60 Hz liegt. Ich stimme in so fern zu, dass diese Technik bei 100 oder gar 120 Hz Monitoren keinen Sinn macht. Der Unterschied in der Wahrnehmung von 100 auf 250 FPS sollte tatsächlich deutlich geringer sein als von 60 auf 100.

Deswegen, bei der 1080p Grütze stimme ich dir sogar zu... deswegen hoffe ich da tatsächlich, dass G-Sync eben seinen Haupteinsatzzweck in höheren Auflösungen erhält, also 2048x1152 aufwärts. Denn da ist das Framelimit tatsächlich ein ziemlich großes Problem.

Und naja den Wechsel von SD auf HD Monitoren muss ich wohl verpasst haben. SD war doch noch VGA? Monitore mit 640x480... Super VGA war doch schon HD... nämlich 1024x768 ^^.

Green Yoshi 22 Motivator - P - 36175 - 19. Oktober 2013 - 15:09 #

Laut Nvidia soll es auch 4K-Monitore (3840x2160) mit der neuen Technik geben.

Bei 1080p ist das ganze vor allem für Nutzer von Mittelklasse-Rechnern interessant, die bei Spielen meist eine Framerate von 40 bis 60 FPS haben. Diese haben mit den neuen Monitoren ein verbessertes Spielerlebenis.

Punisher 22 Motivator - P - 32221 - 19. Oktober 2013 - 16:17 #

Nen richtigen 4k-Monitor in 27 zoll oder so hätte ich in der Tat verdammt gerne... noch lieber als dieses Ding. :)

Decorus 16 Übertalent - 4286 - 19. Oktober 2013 - 16:20 #

http://www.amazon.com/ASUS-PQ321Q-31-5-Inch-4K-Monitor/dp/B00DJ4BIKA

Punisher 22 Motivator - P - 32221 - 19. Oktober 2013 - 16:58 #

Lass mich den Wunsch konkretisieren... :) Zu einem Preis, bei dem ich kein schlechtes Gewissen bekomme... aber das ist wohl nur eine Frage der Zeit. Derweil liebäugle ich mit einem 27" 21:9-Monitor zum arbeiten.

Decorus 16 Übertalent - 4286 - 19. Oktober 2013 - 17:13 #

2 Jahre wirds wohl noch dauern denke ich, wenns unter 1000 Steine gehen soll. Also noch genug Zeit für die Grakas ordentlich zuzulegen. (Auch wenns da gerade auch eher müde aussieht.)
Wobei zum arbeiten 16:10 deutlich angenehmer ist, aber die gibts ja nicht mehr in 27" T_T

Punisher 22 Motivator - P - 32221 - 19. Oktober 2013 - 22:24 #

Richtig, der Trend geht in Richtung breiter breiter breiter bei den Monitoren... die 16:10 die man noch findet sind schon echt Raritäten. Eigentlich ja schade, aber wie bei so vielem eine Gewöhnungssache. Als ich von der guten 19 Zoll-Röhre auf TFT umgestiegen bin war das auch erst seltsam... :) Ebenso bei 4:3 auf 16:10... aber irgendwann hat man sich so dran gewöhnt, dass es eben normal ist. Das mit den zwei Jahren erwarte ich auch in etwa so... dann wärs natürlich auch wieder Zeit für einen neuen Fernseher aka "gewerbliches Präsentationsgerät".

Epic Fail X 18 Doppel-Voter - P - 10440 - 19. Oktober 2013 - 15:05 #

Bei mir (und offensichtlich auch Tim Sweeney) war es andersherum. Zuerst kam ein Flacher mit 1024x768 und VGA-Anschluss (wie dämlich!) und dann einige Jahre später der Sprung auf 1680x1050.

Mazrim_Taim 16 Übertalent - 4088 - 19. Oktober 2013 - 18:20 #

naja ~1999 konnte mein Monitor schon bis zu 1920 x 1440 @ 85Hz.
ok gelaufen war das Ding nur in 1600 x 1200 @ 85Hz weil man so nerdig wurde das man zweistellege FPS wollte um flüssig zu zocken.

Erst mein jetziger 120Hz TFT kommt fast zu dem damaligen SonyF520 heran (zum zocken).

ChuckBROOZeG 20 Gold-Gamer - 21187 - 19. Oktober 2013 - 22:53 #

Yes SonyF520 war mal ein richtig geiler Monitor!

Sp00kyFox (unregistriert) 19. Oktober 2013 - 21:38 #

tearing ist ein elementares problem der computer-grafik und nicht bedingt durch schlechte engines. gegen framerateeinbrüche bei vsync gibts eh schon lange eine lösung, nennt sich vsync.
trotzdem is gsync eine super idee, setzt es doch direkt an der problemquelle an und würde nicht nur bei spielen helfen, sondern generell bei allen anwendungen.

Solala (unregistriert) 21. Oktober 2013 - 9:16 #

Ich glaube, das hat wenig mit schlecht programmierten Spielen zu tun. Das Problem ist technischer Art. Wenn dein Display mit 60 Hz die Bilder wiedergibt und dein Spiel mit 45 FPS, dann hackt's bei jedem zweiten Frame. V-Sync würde dann auf 30 FPS runtergehen, was das Spiel weniger flüssig macht. Krass sehen tut man Tearing vor allem bei Kamera-Schwenks und langsamen Bewegungen - übrigens auch bei Film (24p vs. 25 B/s PAL vs. 29,9 B/s NTSC). Wenn du jetzt ein 120 Hz Display nimmst, dann hast du Tearing auch bei Nicht-120/60/30 FPS. Wenn du 144 Hz hast, dann eben bei Nicht-144/72/36 FPS. Du verschiebst das Problem nur.

Die Lösung ist insofern komplett richtig, nicht durch Software das Problem zu schwächen oder drum herum zu arbeiten (Zwischensequenzen auf 60 FPS zu optimieren, Effekte abzuschalten oder Kameraschwenks zu vermeiden), sondern einfach keine fixe Refreshrate in die Monitore zu zimmern. Wozu auch? Das Signal kommt unregelmäßig, das Display kann unregelmäßige Hz-Zahlen ... warum nicht beide synchronisieren? Und wenn man den unabhängigen Erfahrungsberichten glauben mag, soll das das beste sein, was PC-Gaming je passiert ist. Die Jungs von Anandtech waren jedenfalls richtig begeistert - und das sind Profis.

Limper 18 Doppel-Voter - P - 10310 - 19. Oktober 2013 - 14:11 #

Nette Idee, aber leider proprietär.

Rumi 18 Doppel-Voter - P - 10517 - 19. Oktober 2013 - 17:07 #

gibt ja mehr als eine Möglichkeit Tearing zu verhindern

Klausmensch 14 Komm-Experte - 2213 - 19. Oktober 2013 - 14:28 #

Vielleicht wenn mein Monitor seinen Geist aufgeben sollte und das auch noch irreparabel.

Decorus 16 Übertalent - 4286 - 19. Oktober 2013 - 14:43 #

Jetzt müssten nur noch die Monitore Fortschritte machen.
27"+ IPS(-like) mit 144hz und 1600p.
Naja, man wird ja nochmal träumen dürfen.
Von TN krieg ich nämlich bei 27" aufwärts Sehnervverätzung.

Gnaar (unregistriert) 19. Oktober 2013 - 14:46 #

Für mich persönlich wäre das nix. Ich schalte schon aufgrund meiner normalerweise eher schmal ausgestatteten Rechne V-Synch immer aus. Da hab ich lieber ab und zu einen Riss im Bild, als ein verzögertes Eingabegefühl. Ich bin da aber ohnehin etwas seltsam - ich schalte auch wenn es flüssig läuft oft das Antialiasing aus, weil es sich für mich schärfer anfühlt - obwohl es ja im grunde nur pixeliger ist :).

Für andere aber bestimmt eine sinnvolle Entwicklung.

Decorus 16 Übertalent - 4286 - 19. Oktober 2013 - 15:02 #

Das ist ja gerade der Witz, du eliminierst Tearing *und* den Inputlag bei VS. :)

Green Yoshi 22 Motivator - P - 36175 - 19. Oktober 2013 - 15:11 #

Es wäre verschwendete Rechenzeit VSync zu aktivieren, wenn Du so einen Monitor hast. Auf dem würde Dir ja kein Tearing mehr auffallen.

Sp00kyFox (unregistriert) 19. Oktober 2013 - 21:40 #

es gibt ja faktisch dort auch keines mehr.

Gnaar (unregistriert) 20. Oktober 2013 - 0:06 #

Ja, stimmt - hab da nicht vollkommen drüber nachgedacht. Also ja, wenn das gut umgesetzt ist und am besten nicht NVidia-only klingts sinnvoll.

Phantom Schütze (unregistriert) 19. Oktober 2013 - 15:08 #

Dass Vsync und Maus-Lag komplett wegfallen, ist imo "nur" ein Bonus, weil Triple Buffering bislang auch vollkommen akzeptabel war. Gerade als normaler User hat man aber was davon, weil man eben keine bombenfesten 60 FPS mehr braucht. Die High-End Leute reiben sich zusätzlich die Hände, weil ansprechendes 4K Gaming auf einen Schlag eine ganze Ecke näher gerückt ist.

Man kann generell nur hoffen, dass G-Sync ein Denkanstoß für andere Hersteller (damit meine ich auch Konsolen und TV!) sein wird. Ist klar, dass die sich das schön proprietär halten, aber es spricht prinzipiell eigentlich nichts dagegen, dass sowas zum Standard wird.

Weil das ganze Zeug bisher auf TV-Technik basiert hat, hatte man bisher immer eine gleichbleibende Übertragungsrate. Hinzu kommt, dass das ganze auch noch auf Röhrentechnik basiert und da musste das Bild sogar so konstant kommen.

Vsync ist ja eigentlich ein Röhrentechnik-Begriff. Ein LCD hat ja sowas nicht mehr. Ich denke mal aus Gewohnheit hat halt einfach keiner dran gedacht etwas zu ändern.

Wenn sich dann auch noch LightBoost etabliert und beide Techniken in einem VR-4K-Display verbaut sind, kann die Zukunft kommen. "Matrix" in echt. ^^

Sp00kyFox (unregistriert) 19. Oktober 2013 - 21:42 #

ein LCD baut zwar sein bild anders auf. das problem, dass ein neuer buffer flip vom monitor initiiert wird, während die gpu noch rendered besteht natürlich weiterhin. könnte man jetzt halt vsync in monitor-sync umbennen. aber naja, schlussendlich kommts aufselbe hinaus. auf LCDs haben viele sogar den eindruck, dass tearing sogar noch auffälliger zu bemerken ist als auf röhren.

KarlRanseier (unregistriert) 19. Oktober 2013 - 15:17 #

Bleibt zu hoffen, dass diese Technologie nicht zu Proprietär wird und Konkurrenz auf dem Markt enstehen kann. obwohl Konkurrenz ist schlecht für das Geschäft.

ChuckBROOZeG 20 Gold-Gamer - 21187 - 19. Oktober 2013 - 22:55 #

Hey das ist nVidia ... das wird aber sowas von Proprieträr.

dafreak 13 Koop-Gamer - 1526 - 19. Oktober 2013 - 15:22 #

Für wie viel 1000 ? Nvidia seit der Aussage über die NextGen bei mir unterm Tisch .

Green Yoshi 22 Motivator - P - 36175 - 19. Oktober 2013 - 15:38 #

Aus der Quelle:

"We're told by NVIDIA's Ujesh Desai that the module won't make new monitors much more expensive, and the module works with GPUs that have Kepler architecture (so the GTX 660 and up)."

Ukewa 15 Kenner - 3689 - 19. Oktober 2013 - 15:27 #

"Das ist der größte Sprung bei Spielemonitoren, seitdem wir von SD auf HD gewechselt haben."
Ich würde sogar sagen, daß es der einzige ist :)

Fabowski 13 Koop-Gamer - 1754 - 19. Oktober 2013 - 15:37 #

Tearing ist wirklich nervig, aber hat man das auch bei mehr als 60 Frames bzw. bei einer Framerate >= Bildwiederholungsrate? Besonders auf der Konsole ist mir das oft aufgefallen, wo garantiert keine Framerate von 60 FPS erreicht wurde. Andererseits gibts Titel, die in konstanten 30 FPS laufen und nie tearen, wie Uncharted oder The Last of Us.

Am PC ist mir das meistens bei Titeln aufgefallen, die auf der Unreal Engine basieren. Trotz aktivierter VSYNC-Funktion und einer durchgehenden Framerate von +60 FPS. Muss da konkret an den aktuellen Devil May Cry (DMC) denken. Laut einigen Foren liegt dieses Phänomen an einer schlechten Programmierung/Optimierung.

Ukewa 15 Kenner - 3689 - 19. Oktober 2013 - 16:03 #

Tearing kann immer dann auftreten, wenn die Framerate ungleich Monitorfrequenz ist. Vsync verhindert das nur dann zuverlässig und ohne (weitere) Framerateeinbrüche, wenn die Framerate des Spiels nicht -unter- die Monitorfrequenz einbricht(außer es ist ohne Rest Teilbar, 60Hz / 30Frames z.B.). Allerdings hat Nvidia eine adaptive Vsync, die sich (glaube) dynamisch anpasst, wenn aktiviert.
Framerate > Hz macht auf jeden Fall nix aus wenn Vsync aktiv ist, die Framerate wird dann auf Monitorrefresh gedrosselt(dann hat man aber nie eine Framerate > Hz, schlecht bei Benchmarks), so ist es ja ursprünglich gedacht. Warum Du dann trotzdem Probleme hast..keine Ahnung, evtl verhindert die Engine da irgendwas.

Daß die Framerate noch weiter einbricht wenn man Vsync erzwingt (bei FR < Hz), ist auch klar -> denn dann wird die Framerate noch weiter gedrosselt, da man auf den nächsten Monitorrefresh warten muss.

Hoffe, das ist jetzt nicht zu wirr beschrieben :)

Sp00kyFox (unregistriert) 19. Oktober 2013 - 21:45 #

wobei man mit triple buffering das auch verhindert. da kann man dann auch mit vsync zB 50fps haben, ohne würde es natürlich auf 30fps abfallen.
im übrigen tritt tearing auch bei fps=hz auf. es ist ein generelles problem was unabhängig von der framerate besteht.

Ukewa 15 Kenner - 3689 - 20. Oktober 2013 - 6:14 #

..stimmt! Und davon abgesehen hat man eh nie exakt fps=Hz :)

Mazrim_Taim 16 Übertalent - 4088 - 19. Oktober 2013 - 18:24 #

Hatte ich bei X Treibernr. bei AMD.
Im Treiber vsync aktiviert aber im Spiel wurde das nicht übernommen (z.B. Boderlands).

Aber Tearing ist eher ein Problem von früher.
Ich komme in kaum ein akt. Spiel über 120FPS.

TSH-Lightning 26 Spiele-Kenner - - 65101 - 19. Oktober 2013 - 16:34 #

Wird eine Nischenlösung bleiben, da extra Hardware benötigt wird. Dazu zielt die Sache nur auf "Gaming" ab, was eine weite Marktdurchdringung erschwert. Bisher wollen nur Asus, Benq, Phililps und Viewsonic so was in Ihre neuen "Gamer-Monitore" mit TN-Panels einbauen. TN Displays kann ich mir nicht mehr geben, da bekomme ich Augenkrebs.

AMD und Intel sind außen vor, da NVidia noch nie auf offene Standards gesetzt hat. NVidia beschränkt die Nutzung bei solchen Technologien immer nur auf die aktuelle Generation, weil sie wollen das die Leute neue Grafikkarten kaufen (hier ab 650 Ti Boost).

Ich bin mir sicher, dass man im direkten Vergleich der Technologien (G-Sync vs No-Sync) einen Unterschied sehen wird, allerdings glaube ich nicht, dass sich deshalb viele Leute extra einen G-Sync Monitor und ne neue Nvidia Graka holen werden.

Ich persönlich habe am PC selten Probleme mit Tearing und Vsync ist bei mir fast immer aus. Meine GTX470 (OC) reicht mir momentan noch aus und meinen Monitor gebe ich auch nicht her, da 16:10 mit 24", A-MVA Panel und zu 100% Spiele tauglich heute schwer zu finden ist.

Rumi 18 Doppel-Voter - P - 10517 - 19. Oktober 2013 - 17:05 #

auch wenn´s etwas redundant ist, sollte nochmal der genaue Grund für Tearing einzeln in die News mit rein

Shenzakai (unregistriert) 19. Oktober 2013 - 17:42 #

Hört sich super an, hoffe, das wird auch von AMD noch umgesetzt (bin Radeon-Nutzer). Für mich als HTPC-Nutzer aber momentan eh sekundären Interesses.

hoschi 13 Koop-Gamer - 1631 - 19. Oktober 2013 - 17:50 #

1. Die sollen dafür lieber einen einheitlichen Standard schaffen und keinen NVidia-zertifizierten Bullshit. Ich seh schon die Aufkleber auf den Monitoren: G-Sync integrated oder so ähnlich. Welch ein Graus.
2. Der Schritt von SD auf das sogenannte HD war das schlimmste was den Endverbrauchern passieren konnte. Dieser HD-Begriff suggeriert moderne Technik und hochauflösende Displays. Selbst im Jahre 2013 noch. Nur ist HD, zumindest den gängigen Auflösungen, extrme mies. Jeder gute und große Monitor zu Ende der Röhrenzeiten konnte deutlich mehr. Viele moderne Flach-Panels haben eine max. Auflösung, die ist unter aller Sau, da bin ich immer wieder aufs neue erstaunt. Aber keiner merkt es - weil es ist ja HD und HD ist gut. Die Leute haben heutzutage an ihren >24Zoll Displays solch niedrige Auflösungen am Start, die hätte ich früher nicht einmal auf einem 19 Zoller Röhrenmonitor benutzt.

Der Begriff HD hat meinre Meinung nach die Displaytechnologie zum Stillstand gebracht. Alles verschmilzt unter diesem nichtsagenden Begriff,der auch technisch nichts bietet, und der Konsument meint solange irgendwo HD steht ist alles perfekt.

Neon 11 Forenversteher - 755 - 19. Oktober 2013 - 20:04 #

Und dennoch ist ein Flachbildschirm gerade in puncto Bildschärfe einer Röhre vorzuziehen. Man darf nicht vergessen, dass man bei CRTs zwar hohe Auflösungen einstellen konnte, diese aber zu einen die Lochmaske der Röhre übersteuert haben und zum anderen verzerrt auf eine gewölbte Oberfläche projiziert worden sind.

Ich habe mich lange mit einem CRT zufriedengegeben, aber der Umstieg auf einen Flachbildschirm war ein echter Augenöffner.

FPS-Player (unregistriert) 19. Oktober 2013 - 20:08 #

Watt?! Äh, jetzt wird schlecht programmierten Spielen mittels neuer Hardware zuleibe gerückt? Aha...

Ich bin selbst sehr großer Nvidia-Fan, aber dieses Vorgehen finde ich albern.

Sp00kyFox (unregistriert) 19. Oktober 2013 - 21:48 #

tearing entsteht ja nicht durch schlechte programmierung. und egal ob nun framerateeinbrüche oder nicht, niedrige frameraten können je nach grafikeinstellung oder system ja immer auftreten.
solange die fps-rate nicht ein ganzzahliger teiler der frequenzrate des monitors ist, wird es zu unregelmäßigen bildwiederholungen kommen. insofern ist gsync eine lösung dafür.

FPS-Player (unregistriert) 20. Oktober 2013 - 13:33 #

Dann heißt es aber doch im Umkehrschluß, das, wenn es keine (schlecht programmierten...?) Spiele gäbe, das Problem des Tearings entfallen würde, gell? Ergo stehen wir wieder am Anfang.

Sp00kyFox (unregistriert) 20. Oktober 2013 - 16:05 #

nö. auch wenn es keine spiele geben würde, egal welche, hättest du diese problematik. tearing ist wie gesagt ein elementares problem der computergrafik, völlig unabhängig von der jeweiligen anwendung.

Desotho 18 Doppel-Voter - 9373 - 19. Oktober 2013 - 23:06 #

Oder man benutzt einfach nen schönen Röhrenmonitor.

Marco Büttinghausen 20 Gold-Gamer - 20481 - 26. Oktober 2013 - 4:36 #

klingt erstmal gut, bei tearing bekomme ich mittlerweile Augenkrebs, ohne V-Sync kann ich nicht mehr spielen, aber wenn es mal unter 60fps rutscht ist das auch nicht mehr perfekt, daher begrüße ich grundsächlich neue Technik hier. Hoffe das es weite Verbreitung findet und nicht nur in ein paar kleinen 24er "Gamer" Displays eingebaut wird. 16:10 ist ja schon fast zu Grabe getragen.

Mitarbeit