Nvidia G-Sync ohne HDMI-Port // Industrie ist in der Pflicht

Bild von Maik
Maik 21479 EXP - 20 Gold-Gamer,R9,S4,A7,J10
Dieser User unterstützt GG seit drei Jahren mit einem Abonnement.Alter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Jäger: Hat 75 Erfolge erreicht -- Wahnsinn!Gold-Gamer: Hat den GamersGlobal-Rang 20 erreichtFROGG: Als "Friend of GamersGlobal" darf sich bezeichnen, wer uns 25 Euro spendet.Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertDebattierer: Hat 5000 EXP durch Comments erhaltenIdol der Massen: Hat mindestens 10.000 Kudos bekommenSilber-Jäger: Hat Stufe 10 der Jäger-Klasse erreichtDieser User hat uns an Weihnachten 2014 mit einer Spende von 10 Euro unterstützt.Dieser User hat uns an Weihnachten 2012 mit einer Spende von 12 Euro unterstützt.GG-Supporter: hat einmalig 10 Euro gespendet

22. Oktober 2013 - 16:03 — vor 3 Jahren zuletzt aktualisiert
Nvidia hatte vor kurzer Zeit die neue Technik G-Sync (GG berichtete) in Montreal vorgestellt. Sie soll dabei helfen, Tearing und Auswirkungen bei Framerate-Einbrüchen zu bekämpfen. Gestern traf sich Tom Petersen von Nvidia mit der Redaktion von PC Perspective zu einen Livestream, um sich nach einer längeren Präsentation zu G-Sync einem Interview zu stellen. 
 
Grundsätzlich spricht nichts gegen eine Implementierung bei anderen Panel-Typen als dem aktuell vorgestellen TN-Panel des Asus VG248QE. Für die nötige Unterstützung müssen jedoch die  Bildschirmhersteller sorgen. So sei derzeit auch nicht geplant, neben des Nvidia-Aufrüstkits für den Asus-Monitor weitere Kits für andere Modelle anzubieten. Nvidia sei sich der großen Bastler- und Modding-Gemeinde bewusst, weswegen durch das Nachrüstmodul der Stein ins Rollen kommen soll. Wenn die Hersteller G-Sync-Monitore anbieten, ist der einfachste Weg der Neukauf, um G-Sync zu nutzen.
 
Ausweichend anwortet Petersen auf die Frage, welche Hersteller neben Asus, Benq, Philips und Viewsonic G-Sync-Monitore anbieten würden. Er werde zum jetzigen Zeitpunkt keine weiteren Namen oder Produkte nennen, jedoch gibt es ein großes Interesse der Industrie. Diese Aussage wiederholte er auf die Frage zu TV-Bildschirmen. Es gibt keine Bedenken gegen ein HDMI-fähiges G-Sync-Modul, aktuell konzentriert Nvidia sich jedoch auf den Gamingbereich und damit ist kein HDMI-Port vorhanden. Petersen betont die neuen gestalterischen Freiheiten, die G-Sync den Spieleentwicklern bietet, da nicht mehr immer und jederzeit verhindert werden muss, unter 60 Frames/s zu sinken.
Punisher 19 Megatalent - P - 13365 - 22. Oktober 2013 - 16:36 #

Ich bin ja mittlerweile aus der ganzen Hardware-Nummer ziemlich raus, daher... gibt es einen vernünftigen Grund zur sinngemäßen Aussage "Spieler nutzen eh kein HDMI"?

Sok4R 16 Übertalent - P - 4432 - 22. Oktober 2013 - 16:42 #

HDMI ist bei Fernsehern der Standard, da auch Ton darüber geht und wegen der Verschlüsselung der Signale, was der Film-Industrie wichtig ist.
Am PC gibt es mit DVI, HDMI und DisplayPort gleich drei Standards, wobei letzterer weniger im Heimbereich. Wobei ich jetzt auch wenig Grund dafür sehe, HDMI nicht zu unterstützen, da es doch sehr verbreitet ist, vor allem viel weiter als DiplayPort.

Decorus 16 Übertalent - 4246 - 22. Oktober 2013 - 16:46 #

HDMI hat, iirc, die höchsten Kosten für die Lizenz.

Punisher 19 Megatalent - P - 13365 - 22. Oktober 2013 - 17:53 #

Trotzdem hat so gut wie jede moderne Grafikkarte einen HDMI-Port, ebenso jeder neuere Consumer-Monitor... irgendwie erschließt sich mir die Logik hinter dieser Aussage nicht, ich hatte jetzt mit einer Antwort wie "DVI hat 1 nano-Sekunde schnellere Reaktionszeit" oder so gerechnet...

Decorus 16 Übertalent - 4246 - 22. Oktober 2013 - 18:00 #

Nein, nichtmal die hälfte der bei gh.de gelisteten Monitore hat HDMI. Ganz besonders bei den hier besprochenen TN-Panels lohnt sich das (imho) nicht. Wer will darüber schon BR oder TV schauen.

Vampiro 21 Motivator - P - 30534 - 22. Oktober 2013 - 17:29 #

"aktuell konzentriert Nvidia sich jedoch auf den Gamingbereich und damit ist kein HDMI-Port vorhanden."

Tolles Argument. Es hat ja kaum einer Heimkonsolen (Xbox 360, WiiU, PS3, bald Xbone, PS4). Ach halt, in der neuen Generation wird ja AMD seine GPU bzw. CPU/GPU verbauen, wenn ich mich nicht irre?

Sp00kyFox 18 Doppel-Voter - 9731 - 22. Oktober 2013 - 18:56 #

eine seite reicht hierzu nicht aus. auch die grafikkarte muss mit gsync kommunizieren. und da das jetzt relativ neu ist, kann weder die bisherige noch die neue konsolengen damit umgehen. von daher wird diese technik für konsoleros also erst ab der übernächsten konsolengen interessant sein, sprich in 5 jahren dann.

außer sie entscheiden sich dazu, in einer neuen revision der ps4/xbone dies zu implementieren. würde ich aber nicht drauf wetten, weil es eher unwahrscheinlich ist, dass fernsehherseller darauf anspringen. schließlich laufen filme mit weitaus niedrigeren, konstanten bildraten, wo gsync nicht nötig wäre. und die konsolenspieler die ihr gerät an einem monitor nutzen dürfte wohl eine zu kleine und damit unrentable gruppe sein.

nvskeptiker (unregistriert) 23. Oktober 2013 - 0:19 #

Und dann wär da noch das Problem, dass sie dann auch gleich die GPU bzw. die APU der Konsolen tauschen müsssten, um das proprietäre System von nvidia nutzen zu können. Wenn man bedenkt, wieviel Aufwand da anfallen würde, um Kompatibilität zu den vorherigen Versionben zu gewährleisten, noch viel unwahrscheinlicher :)

MaverickM 17 Shapeshifter - 7448 - 22. Oktober 2013 - 18:29 #

Um HDMI trauere ich nicht. Dass G-Sync auf DisplayPort setzt ist gut. Es wird Zeit DVI endlich abzulösen.

Ansonsten deutet ja - wie ich bereits mehrfach gesagt habe - alles darauf hin, dass G-Sync eine Totgeburt wird... In gängigen Consumer-Monitoren wird es eh nie Einzug halten. Es wird höchstens in diesen ganzen "Gamer" Monitoren (TN Kernschrott) drin sein (vorerst zumindest) und die werden so teuer sein, dass sie keiner kauft. Denn wer sich das leisten kann, greift lieber zu einem IPS mit allgemein besserer Bilddarstellung.

guapo 18 Doppel-Voter - 9877 - 22. Oktober 2013 - 18:47 #

Warum sollte man jetzt DVI abschaffen?

MaverickM 17 Shapeshifter - 7448 - 22. Oktober 2013 - 19:33 #

Weil es überholt ist und ohnehin die Bandbreite für z.B. 4k nicht mehr ausreicht.

Jadiger 16 Übertalent - 4874 - 23. Oktober 2013 - 6:57 #

Bei der Masse an 4K Monitoren ist es noch lange nicht veraltet. Es gibt keine Gpu die mit 4K wirklich was reist die 4K Monitor sind viel zu teuer. Es heist ja nicht nur weil es vereinzelt Geräte mit 4K gibt das es jetzt Standard ist. Schaut man sich den deutschen TV Markt an haben viele gerade mal 720p. Am PC ist 1440p noch für einige Spiele zuviel des guten solange Gpus nicht mindesten das schaffen ist 4K noch mindestens 5 Jahre weit weg.
Bf4 soll in 4K 5,1 Gb Ram brauchen und ist erst ab 3x Titan wirklich Spielbar. In 1440p ist eine Titan schon überfordert mit dem Spiel.

ChuckBROOZeG 19 Megatalent - 18732 - 23. Oktober 2013 - 7:42 #

Also es sind ja nicht nur die 4K monitore wo DVI schon längst nicht mehr ausreicht.
Nein mal sollte auch mal aufblicken vom 22 oder 23 Zoll 16:9 Schrott (nur meine Meinung!) und sich ordentliche 16:10 27 oder 30 Zöller anschauen und wenn dann plötzlich für optimale Ergebnisse 2 DVI Kabel an einem Monitor hängen sollte man schon feststellen das DVI einfach veraltet ist.
Und Monitore in diesen Größen und Auflösungen haben durchaus gute Verkaufszahlen.

Sp00kyFox 18 Doppel-Voter - 9731 - 22. Oktober 2013 - 19:03 #

deine abneigung gegenüber einer bestimmten technik solltest du nicht verallgemeinern. auch hier wieder: TN ist kein schrott, sondern hat prinzipiell andere eigenschaften als IPS. der vorteil in sachen farbdarstellung und winkelabhängigkeit die IPS bietet ist eher interessant für professionelle bild/video-bearbeitung. da sind schnelle reaktionszeiten für normale user interessanter und nicht nur für eine obskure "gamer"-kundschaft.

MaverickM 17 Shapeshifter - 7448 - 22. Oktober 2013 - 19:33 #

Genau, Bildqualität ist egal. Hauptsache die Quantität stimmt!
Wie konnte ich nur glauben, dass es bei einem Monitor auf möglichst gute Bilddarstellung ankommt!? Ich Tor!

> TN ist kein schrott, sondern hat prinzipiell
> andere eigenschaften als IPS.

Man kann alles mit blumigen Worten umschreiben, wenn man will...

Sp00kyFox 18 Doppel-Voter - 9731 - 22. Oktober 2013 - 20:37 #

die bildqualität ist nicht "schrott" bei TN-panels, sie genügt nur nicht den ansprüchen im professionellen bereich wo es auf entsprechend realitätsgetreue darstellung geht, da es ansonsten zu konsequenzen im endprodukt führt wie etwa film, zeitung usw.
LCD schneidet diesbzgl ohnehin schlechter ab als etwa plasma oder OLED. allerdings ist realitätsgetreue farbdarstellung eben nur eine von vielen kriterien ;)

MaverickM 17 Shapeshifter - 7448 - 22. Oktober 2013 - 20:40 #

OLED besser als andere im Bezug auf Farbtreue!? Das ich nicht lache...

TN Panele haben schlichtweg meist komplett überzogene Farben. Das hat nichts mehr mit Naturgetreuen Farben. Da brauch ich auch nicht mit Eizo Monitoren mit 10bit Farbtiefe vergleichen um den Unterschied zu sehen.
Noch schlimmer ist übrigens (AM)OLED. Grauenhaft.

Sp00kyFox 18 Doppel-Voter - 9731 - 22. Oktober 2013 - 21:24 #

jup, so ist es. da solltest du dich nochmal informieren. da kann auch dein geliebtes IPS nicht mithalten. vlt haste aber auch einige der OLED-billig-varianten im kopf, wo die farbtreue zugunsten der produktionskosten leidet.

hat ja niemand was dagegen, dass du IPS bevorzugst. aber ist einfach mal selten dämlich TN generell als schrott abzustufen, weil dir persönlich farbtreue so wichtig ist. entsprechend sage ich dann einfach mal IPS is totaler müll, nur dummes konsumvieh ohne bildanspruch kauft sich sowas. schließlich vermatschen da jegliche bewegte bilder.

MaverickM 17 Shapeshifter - 7448 - 22. Oktober 2013 - 23:33 #

Das tun sie bei aktuell jeder Display-Technologie die auf Flüssigkristallen basiert. Ergo ist Dein "Argument" totaler Unsinn.

Und die Farbtreue von OLED Displays ist immer noch mies. Zeig mir ein Gerät bei dem das nicht der Fall ist. Was theoretisch im Labor möglich ist, ist nicht relevant.

Sp00kyFox 18 Doppel-Voter - 9731 - 23. Oktober 2013 - 0:18 #

nö, dein einwurf ist da totaler unsinn. es gibt panels wo das gerade nicht der fall ist und das sind eben die TN-panels. wie schon mehrfach gesagt, es gibt mehr kriterien als nur die farbwidergabe. und natürlich sind laborergebnisse und forschung sowieso relevant, deine ignoranz ändert daran auch nichts.

MaverickM 17 Shapeshifter - 7448 - 23. Oktober 2013 - 17:13 #

Im Labor sind gekrümmte OLED Panels möglich. Das ist aber noch lange von einer brauchbaren Massenfertigung entfernt. Demnächst werden wir wohl erste Geräte mit dem Samsung und dem LG Smartphone sehen. Ob die was taugen wird sich erst zeigen.

Und genauso sieht es mit brauchbarer Farbkalibrierung bei OLEDs am Markt aus. Da gibt es derzeit nichts.

Und wenn Du auf TN stehst... Bitte, kauf den Schrott. Ist ja Dein Geld.
Die breite Masse da draußen kauft auch nur TN, weil es schön billig (nicht günstig!) ist. Aber - wenn man mal den Preis außen vor lässt - frag die Leute was Ihnen wichtiger ist. Bessere Bildqualität oder dass der Monitor weniger "Inputlag" hat. Spoiler: Es wird garantiert nicht der Inputlag sein.

Sp00kyFox 18 Doppel-Voter - 9731 - 23. Oktober 2013 - 23:40 #

ist mir schon klar, dass du mit deiner farbgeilheit das nicht nachvollziehen kannst. du solltest da aber nicht von dir auf andere schließen. deine farbtreue kannste dir auch in die haare schmieren, solange der monitor jede bewegung vermatscht.
schau dir etwa die werbung an, es wird sowohl bei fernsehgeräten als auch bei monitoren nicht umsonst vor allem mit der flüssigen wiedergabe und geringen reaktionszeiten beworben. solange die farbkomposition stimmt, ist der kunde zufrieden.
frag ihn aber mal, was er davon hält, wenn jede bewegte szene matscht und rumschliert. genau, dann ist auf die exakte farbtreue die sich nur als feature bemerkbar macht nämlich geschissen. aber wer sich eben nur davon blenden lässt, ist selbst schuld wenn er diesen IPS müll kauft. viel spaß damit.

MaverickM 17 Shapeshifter - 7448 - 24. Oktober 2013 - 17:29 #

Du unterstellst halt, dass IPS gleichbedeutend mit Schlieren und "Matsch" bei schnellen Bewegungen ist. Das ist kompletter Unsinn. Verschwommene Schrift bei bewegtem Text hat momentan jede Display Technik, dafür soll ja das G-Sync da sein.

Offenbar hast Du noch nie ein gutes Display mit eigenen Augen gesehen...

Sp00kyFox 18 Doppel-Voter - 9731 - 25. Oktober 2013 - 19:37 #

nö. wenn du denkst g-sync würde das beheben, hast du den sinn dieser technik nicht verstanden. gegen matschige bewegungen helfen nur panels mit schnellen reaktionszeiten bzw mit hohen frequenzraten und das sind nun mal keine IPS-panels. da solltest du dir mal im vergleich ein entsprechendes gerät betrachten, die es sehr wohl gibt. siehe die vorletzte c't mit einer testserie zu entsprechend monitoren.
gsync macht da auch nix schneller, sondern behebt nur die ruckel- und lag-problematik die sich aus der diskrepanz zwischen framerate und refreshrate ergibt.

Solala (unregistriert) 23. Oktober 2013 - 9:36 #

Oben steht doch, dass G-Sync auch bei IPS funktioniert, nur dass Nvidia das nicht persönlich umsetzt, sondern die Monitor-Hersteller und Drittanbieter. Ebenso wie HDMI usw. Außerdem ist das jetzt erst mal der erste Aufschlag von Nvidia. Vielleicht lizensiert AMD das ja, wenn der Markt das verlangt und kommt auch in Highend-Monitore. Grundlegend ist die Methode doch super.

MaverickM 17 Shapeshifter - 7448 - 23. Oktober 2013 - 17:16 #

Selbst wenn AMD wollen würde, würde nVidia das nicht freigeben. Siehe PhysX.

Ansonsten ist es proprietärer Dreck. Alles was kein offener Standard ist, ist schlecht. Wenn, dann bitte gefälligst in jedem Monitor für alle, als Standard, der allgemein unterstützt wird. Und unabhängig vom GPU-Hersteller funktioniert.

ChuckBROOZeG 19 Megatalent - 18732 - 23. Oktober 2013 - 20:28 #

Also wie immer von dir völlig überzogene Ausführungen.
Als wenn nur offene Erfindungen die Welt weiterbringen würden.
Das nVidia die Verbreitung und damit die Relevanz selbst wieder einschränken wird ist ein ganz anderes Thema. Aber einfach nur sagen entweder offen oder es ist Rotz ist einfach nur borniert.
Andere Lizenzieren sowas dann zu vernünftigen Preisen weiter und alle haben was davon. Nur weil nVidia da eine sehr komische Herangehensweise hat jegliches geistige Leistung die nicht frei zur Verfügung gestellt wird ... als Dreck zu bezeichnen.

Sp00kyFox 18 Doppel-Voter - 9731 - 23. Oktober 2013 - 23:43 #

mach dir nichts draus. falcon hat da generell eine sehr egozentrische sicht, nach der alle anderen das auch so sehen müssen. daher erhebt er auch generell seine meinung zum faktum. vlt wird er ja merken wie lächerlich sein elitäres nutzer-bewusstsein war, wenn er n par jahre älter ist.

MaverickM 17 Shapeshifter - 7448 - 24. Oktober 2013 - 17:31 #

Proprietär ist Mist. Immer.
Was soll daran toll sein, dass es nur einen Hersteller gibt, der gar nicht oder nur unter horrenden Lizenzkosten lizensiert!?

ChuckBROOZeG 19 Megatalent - 18732 - 24. Oktober 2013 - 17:52 #

Ja genau nieder mit dem geistigen Eigentum. So eine blödsinnige Argumentation.
Die vollkommene Aufgabe der Möglichkeit an eigenen Erfindungen Geld zu verdienen ist natürlich die höchste Motivation überhaupt an Neuerungen zu arbeiten.
Ja ja nur der kleine Erfinder zu Hause aus der Garage darf mit seinen Erfindungen was verdienen.
Ich sag es dir nochmal du solltest mal ein bischen differenzieren lernen, zB zwischen dem was sein sollte und was wenige (zb nVidia) machen.

Thomas Barth 21 Motivator - 27449 - 22. Oktober 2013 - 19:52 #

Also wird nichts aus weniger Tearing für Gamer, die ihren PC gerne an den Fernseher per HDMI anschließen? Steam Big Picture ist ja sowieso völlig überbewertet und ne Steam Box braucht ja auch kein Mensch.

So ein proprietäres Format ist sowieso viel toller für alle, weil man damit viel leichter den Kunden das Geld aus der Tasche ziehen kann.

ChuckBROOZeG 19 Megatalent - 18732 - 23. Oktober 2013 - 7:35 #

Also mein Fernseher hat Displayport.
Ok ich schliesse deswegen trotzdem den Rechner nicht daran an weil mir DLNA reicht. Von daher ist BigPicture in der Tat überbewertet :-P.

Labrador Nelson 27 Spiele-Experte - - 85939 - 23. Oktober 2013 - 0:27 #

Klingt alles irgendwie so, als würde es sich nicht durchsetzen. Nicht dass ich es Nvidia nicht gönnen würde...

ChuckBROOZeG 19 Megatalent - 18732 - 23. Oktober 2013 - 7:38 #

Obwohl ich die letzten 2 mal nVidia Grafikarten gekauft habe gönn ich ihnen den Erfolg damit nicht.
Das sie immer wieder auf Propritäre Konzepte setzen und diese nicht zu annehmbaren Preisen lizenzierbar für andere machen stinkt mir.

Shenzakai (unregistriert) 23. Oktober 2013 - 8:21 #

HDMI wäre insofern interessant für Leute, welche via PC am TV zocken - wie mich :) Doch bis TVs das unterstützen, wenn überhaupt, wird wohl einige Zeit ins Land gehen...

Vincent_Lynx 06 Bewerter - 50 - 23. Oktober 2013 - 11:03 #

Der im Artikel genannte ASUS VG248QE mit Q-Sync soll übrigens für 399 USD an den Start gehen.

MaverickM 17 Shapeshifter - 7448 - 23. Oktober 2013 - 17:17 #

Ganz schön teuer für TN Technik. Das kauft keiner.

ChuckBROOZeG 19 Megatalent - 18732 - 23. Oktober 2013 - 20:32 #

Ach alles was als Gamer explizit gekennzeichnet wird ist in sehr hoher Wahrscheinlichkeit zu Teuer für die gebotene Hardware und wird trotzdem gekauft. Die Gamer fühlen sich geschmeichelt und zahlen und viele interessiert es auch nicht wie Farbecht andere Panels sein können die sehen nur viele Herz und schön Bunt und dazu noch eingebautes VSync (und ja am Ende wird es doch so beworben ^^) dat ist das richtige dat kauf ich.
Die meißten sehen doch gar nicht nach was ein Panel für eine Technik hat und welche Vor bzw Nachteile diese haben. Auflösung? Chek! Größe? Chek! Anschlüsse? Chek! Dann mal Preisvergleich von allem was da ist!

MaverickM 17 Shapeshifter - 7448 - 24. Oktober 2013 - 17:34 #

Stimmt. Aber genau beim Preis hakt es dann doch. Die Majorität der potentiellen Käufer ist der Otto-Normale ohne Technik-Wissen. Und die kaufen garantiert keinen ASUS für 399€ (Oder meinetwegen auch einen Fufi weniger, dann Straßenpreis), wenn daneben ein ASUS für 199€ steht...

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit