Separable Subsurface Scattering: Echtzeit-Hautdarstellung

Bild von Ramon Domke
Ramon Domke 4434 EXP - 16 Übertalent,R7,S3,C7
Alter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertLoyalist: Ist seit mindestens einem Jahr bei GG.de dabeiStar: Hat 1000 Kudos für eigene News/Artikel erhaltenTop-News-Veteran: Hat mindestens 50 Top-News geschriebenAzubi-Redigierer: Hat 100 EXP beim Verbessern fremder News verdientVorbild: Hat mindestens 100 Kudos erhaltenVielschreiber-Azubi: Hat mindestens 50 veröffentlichte News geschriebenTop-News-Schreiber: Hat mindestens 5 Top-News geschriebenSammler: Hat mindestens 50 Spiele in seiner Sammlung

7. Februar 2012 - 22:00 — vor 5 Jahren zuletzt aktualisiert

Computerspiele versuchen seit ihren ersten Anfängen, immer realistischer zu werden. Wurde ein virtueller Tennisspieler Anfang der 70er Jahre noch auf seinen Schläger reduziert, der seinerseits als weißer Balken auf schwarzem Grund dargestellt wurde (Pong), sehen heutige Recken in Virtua Tennis oder Grand Slam Tennis ihren Vorbildern schon extrem ähnlich, bis hin zu Stirnfalten oder Schweißtropfen auf der Haut. Nun gibt es eine neue, speziell für Computerspiele entwickelte Technik namens Separable Subsurface Scattering (in etwa: getrennt erfolgende Tiefenschicht-Verteilung). Diese ermöglicht es, die feinen Hautdetails, wie etwa Poren, Haarwurzeln oder Rötungen in Echtzeit zu berechnen – eine Demonstration seht ihr im unten eingefügten Video.

Für Skeptiker, die nicht glauben können, dass es sich bei dem vorgestellten Video um eine Echtzeit-Aufnahme handelt, bietet der Entwickler Jorge Jimenez eine Demo zum Download an. Technikbegeisterte finden auf dem Blog von Jimenez (siehe Link) außerdem weiterführende Literatur zum Thema der realistischen Darstellung von Menschen in Computerspielen. Sein nächstes Ziel, so kündigt er an, ist eine realistischere Darstellung von Haaren.

Video:

canuck97 11 Forenversteher - 687 - 7. Februar 2012 - 18:45 #

Jetzt weiß ich auch, was ich die letzten 20-Videospiel-Jahre so vermisst habe ...

Khorn 13 Koop-Gamer - 1513 - 7. Februar 2012 - 18:51 #

Sieht ja echt nicht schlecht aus, aber der Transformers Score passt ja mal gar nicht.

ganga Community-Moderator - P - 16259 - 7. Februar 2012 - 18:55 #

WOW! Das könnte echt ein Riesenfortschritt sein. Gerade bei so Spielen wie Mass Effect würde das ein massives Ambienteplus bringen.

blobblond 19 Megatalent - 18300 - 7. Februar 2012 - 19:01 #

naja der demo download tümpelt gerade vor sich hin mit ganzen 29,3KB/s

Jak81 16 Übertalent - 5254 - 7. Februar 2012 - 19:05 #

Ok, eine Technik, die das hinzufügt, was die Modefotografen immer mit Photoshop aus ihren Bildern entfernen... :D

Sieht aber klasse aus, das muss man sagen!

ernie76-2 (unregistriert) 7. Februar 2012 - 22:07 #

Haha der war gut!!! Made my day!

NedTed 18 Doppel-Voter - P - 11793 - 7. Februar 2012 - 19:06 #

Sieht trotzdem noch aus wie Wachsfiguren...

Anonymous (unregistriert) 7. Februar 2012 - 19:10 #

Hui, das sieht extrem realistisch aus! Hallo USK / BPJM!
Da kann LA Noire aber einpacken.

Anonymous (unregistriert) 7. Februar 2012 - 19:12 #

"Vielleicht erwarten uns in den kommenden Jahren Spiele in der Qualität heutiger Zwischensequenzen eines Diablo 3 oder Final Fanatsy 13-2"

Der war gut...
Also, klar, wenn "kommende Jahre" 10-20 heisst, dann ja. Aber sonst,... dauert das leider noch ewig. Gibt ja heute gerade mal 1, 2 wirklich gut aussehende Spiele (Uncharted 3 und Battlefield 3), und 90% schaut immer noch nach Crap aus den 00ern aus.

Ramon Domke 16 Übertalent - 4434 - 7. Februar 2012 - 19:17 #

Ja, ich ging bei der Aussage in der Tat von einem etwas größeren Zeitabstand aus, und meinte nicht 1-3 Jahre. Zwischen Myst (1993) und realMsyt (2000/2002) lagen damals gute 7 Jahre. Jetzt nochmals 10 Jahre später würde man die Grafik von realMyst vermutlich schon als steinzeitlich bezeichnen. Heute könnte man sich aber vermutlich ein Myst: Revelations in Echtzeit 3D gut vorstellen (oder besseres).

Freeks 16 Übertalent - 5530 - 7. Februar 2012 - 19:22 #

Atemberaubend...

Larnak 21 Motivator - P - 25987 - 7. Februar 2012 - 19:22 #

Ok, die Echtzeit-Berechnung solcher Gesichter mag funktionieren. Aber wie hoch ist der Aufwand, solche Gesichter in für ein Spiel relevanter Zahl zu modellieren und die Animationen einzubauen?

Das klingt mir nach einem ziemlich teuren Entwickler-Spaß.

roshi 13 Koop-Gamer - 1610 - 7. Februar 2012 - 23:07 #

ich weis jetzt nicht was man in der Demo zu sehen bekommt, aber was da im Video zu sehen ist klappt in echtzeit in einem Game derweil wohl eher nur wenn keine andere Geometrie vorhanden is.
Der Polycount des Meshes ist immens hoch. Sicher wird das mal möglich sein, wird sicher auch keine 10 Jahre mehr dauern, aber die aktuellen Grafikkarten werden damit überfordert sein wenn solche Meshes in Games auftauchen. Modelliert wird sowas mit ZBrush oder Mudbox o.a Sculptingtools, das ist nicht so das Problem.

Anonymous (unregistriert) 7. Februar 2012 - 23:12 #

Schon mal mit moderneren Tools wie zBrush oder Modo gearbeitet oder zumindest dabei zugesehen?

Die Arbeitsschritte sind je nach Effekt unterschiedlich; Vieles erschlägt man aber über gute Materialeinstellungen in diesen Tools. Für die Echtzeitdarstellung werden diese dann in diverse Texturen rausgerendert (Anteile wie Diffuse, Specular, Normal, Lightning, ...) - dauert der Renderprozess halt etwas länger.

Subsurface Scattering gibt es schon seit vielen Jahren und ist Alltag in Rendertools. Auch in nVIDIA's GPU Gems gab's schon Echtzeitimplementierungen. Die Kunst oder Krux liegt weniger darin die erforderlichen Informationen zu erstellen, als vielmehr darin diese in so wenigen Schritten und so performant wie möglich auf den Zielplattformen, sprich z.B. auf irgendeiner Konsole, wiedergeben zu können. Hast Du also ein Verfahren (Shadercode plus Texturinformationen), daß es ermöglicht ein paar Passes auszulassen, dann hast Du wieder ein wenig gewonnen.

roshi 13 Koop-Gamer - 1610 - 7. Februar 2012 - 23:33 #

jou hab zwei Jahre mit den Dingern gearbeitet. Ich beziehe meine Aussage wie gesagt nur au die Polyzahl. Das erstellen von solchen Meshes ist wie gesagt nicht das Problem und natürlich nur ein Teilschritt auf dem Weg zu einem GameMesh samt Textur, den verschiedenen Maps und so weiter. Aber für ein Gesicht wie es dort im Video ist, haste eben den Vorteil der hohen Polygonzahl, was sich sehr postiv auf all die anderen Faktoren, ausser natürlich der Performance auswirkt

Anonymous (unregistriert) 7. Februar 2012 - 23:41 #

In Zukunft Hardware Tesselation plus in einem Spiel brauchst Du's ja auch nicht ganz so genau, da solcherlei Nahaufnahmen sowie ruhige Szenen eher selten sind; sprich ein guter Kompromiss ist wahrscheinlich findbar, falls man dies implementieren will. Für viele Projekte tut's aber auch ein herkömmlicher Skinshader. SubsurfaceScattering ist ja aber auch abseits von Gesichtern, für andere Materialien von Interesse.

Anonymous (unregistriert) 7. Februar 2012 - 19:26 #

Der Score macht erstmal alles geil.
Ansonsten das paaren mit der neuesten Unreal Engine 3, im gleichen Setting (Blade Runner)... hach, Träume.. Orgasmen..
Achso, Mist, jaja, ich weiss, um cool zu sein, muss man ja Anti-Grafik sein... Also: Es kommt nur aufs Gameplay an, auf sonst NICHTS. JAWOHL. Früher war alles besser!

PS: Auch wenn die Details natürlich auf ner andere Welt spielen, am nahesten kommt da bereits der Eve Online Charakter Editor - und somit auch das kommende MMORPG WoD, yay!

@canuck97 so viel hast du nicht vermisst. Spiele fangen gerade erst an, gut zu werden. Was ja nichts Besonderes ist, bei Filmen hats um einiges länger gedauert. Aber wie auch diverse Entwickler (z.b. Jonathan Blow etc) desöfteren sagen, stecken Spiele weiterhin noch in den Kinderschuhen (Nein, nicht auf Grafik bezogen).

Guldan 17 Shapeshifter - P - 8351 - 7. Februar 2012 - 22:10 #

Das sieht sehr gut aus nur wie man das in einem Spiel umsetzen will muss man erstmal hinbekommen.

Steven C. 12 Trollwächter - 1182 - 7. Februar 2012 - 23:22 #

Sieht gut aus, und Realismus in Spielen wird die Zukunft sein.
Das Holodeck wird kommen.

Nur aktuell stellen sich die Fragen nach Leistungs und Übertragungskapazitäten.
Angenommen wir bauen das in ein MMO ein? Muss es ein 2000 Euro PC sein? Reichen da 32 Mbit noch um alles in akzeptabler PPS zu erhalten?
Von der Gigabit Gesellschaft ist gerade Deutschland noch weit entfernt.

sw4pf1le 18 Doppel-Voter - 10771 - 7. Februar 2012 - 23:24 #

Und jetzt bitte noch mit Haaren und dann schauen wir uns die Framerate nochmal an. ;)

Ansonsten natürlich: Ja, sieht gut aus. Wäre gefühlt nach langer Zeit mal wieder der Fall, dass wir die japanische Tricktechnik beim Fotorealismus übertreffen würden.

Name 7. Februar 2012 - 23:50 #

Beängstigend gut...

Earl iGrey 16 Übertalent - 5042 - 8. Februar 2012 - 2:16 #

Also zum einen sehe ich in dem Film ein Objekt das ein detaillierter 3D Scan eines realen Objekts sein könnte und null animiert ist. Die Haut ist eine sehr detaillierte Textur und dann gibt es Oberflächeneffekte und Lichteinfall. Warum soll das etwas Neues sein? :D

Selbst wenn der Clou in mehreren übereinanderliegenden "Hautschichten" liegt, haben wir sowas- sogar in Bewegung- nicht bereits in der "Samariter" Unreal-Techdemo gesehen? :)

MachineryJoe 16 Übertalent - P - 4404 - 8. Februar 2012 - 9:50 #

Sicher, es ist eben nur ein anderer Ansatz für Subsurface Scattering und wie es scheint, ist es kein schlechter. Wenn es mit Shadern gelöst wurde, ist es auch animiert kein Problem, denn bei den Animationen werden die Vertices der Geometrie verschoben.

Auch wenn das Modell recht hochpolygon zu sein scheint, kann so eine ähnliche Umsetzung in Spielen möglich sein, zumindest in Nahaufnahmen, in Innenräumen. Das Problem bei dieser Demo werden eher die großen detaillierten Texturen sein, die bei dem winzigen Speicher der Konsolen nicht funktionieren werden. Aber auf PC ist solche Technik intelligent eingesetzt möglich. Wenn ich an die Nahaufnahmen beim Witcher denke, die sogar im ersten Teil noch detaillierter waren als im Zweiten, dann waren wir ja schon damals relativ nah dran. Auch dort wurden in Nahaufnahmen noch einmal detailliertere Texturen nachgeladen. Beim normalen Gameplay brauchte man den Detailgrad natürlich nicht.

Volkskommentator (unregistriert) 8. Februar 2012 - 9:52 #

Über Tessellation hat man damals das gleiche gesagt ;)

MachineryJoe 16 Übertalent - P - 4404 - 8. Februar 2012 - 10:12 #

Wegen der Leistung:
Der Autor schreibt es läuft bei ihm zwischen 80 and 160 FPS, mit einem Durchschnitt von 112,5 FPS auf seiner GeForce GTX 580.

Auf meiner etwas schwächeren GTX 470 läuft es mit 70-100 FPS.

Zu den Texturgrößen habe ich nichts gefunden, aber aus eigener Modelliererfahrung vermute ich, dass sie schon 4096 groß sein müssen, um diesem Detailgrad standzuhalten, insbesondere, da die Textur scheinbar nicht gespiegelt wurde.

bam 15 Kenner - 2757 - 8. Februar 2012 - 14:10 #

Nur jetzt nochmal zig andere Charaktere hinzufügen, eine komplette Umwelt, alles animieren, Physikberechnung rein etc.

Genau das ist das Problem mit solchen Technikdemos, auch wenn sie in Echtzeit laufen. Sowas muss eben unter "Realbedingungen" präsentiert werden, um zu zeigen, dass die Technik jetzt schon nutzbar ist. Da das nicht geschehen ist, kann man eben davon ausgehen, dass es derzeit noch nicht der Fall ist.

Entsprechend kann man das ganz nüchtern sehen. Toll das an sowas gearbeitet wird, aber auch wenn eine Echtzeitdarstellung in diesem Rahmen möglich ist, bleibt es Zukunftsmusik für die Implementierung in Spielen.

MachineryJoe 16 Übertalent - P - 4404 - 8. Februar 2012 - 15:28 #

Nochmal (ich hatte das weiter oben schon mal erläutert): So ein Detailgrad wird nie und nimmer in einem laufenden Spiel dargestellt, wäre auch unsinnig. In der Entfernung würden die Mipmaps der Texturen bereits einen Bruchteil der Texturgröße ausmachen und müssten damit auch weniger aufwändig im Shader gerendert werden. Dieser Detailgrad ist natürlich nur geeignet, ganz nahe Portraitaufnahmen von virtuellen Menschen darzustellen. Da braucht es keine Physik, keine Kollisionsabfrage, keine komplette Spielwelt. Im Gegenteil, wie im Video wird der Hintergrund eh durch die simulierte Kameraunschärfe fast ausgeblendet.

Zukunftsmusik ist es nicht, zumindest nicht auf dem PC.

bam 15 Kenner - 2757 - 8. Februar 2012 - 15:37 #

Es bleibt Zukunftsmusik in Spielen, auch auf dem PC orientieren sich Entwickler an der beim Käufer vorhandene Hardware, nicht an den oberen ~5%. Wenn die Technik nur für Portraitaufnahmen derzeit denkbar ist, spielt das ganze auch derzeit keine Rolle für Spiele. Da bietet sich entsprechend vorgerendertes an.

Ich red das ganze ja nicht schlecht, nur dürfte bis zur Anwendung noch sehr viel Zeit vergehen. Es steht eben immer der Aufwand und der Nutzen im Verhältnis und bei aktuellen Gegebenheiten überwiegt da der Aufwand noch, der das ganze unattraktiv macht.

guapo 18 Doppel-Voter - 10383 - 9. Februar 2012 - 10:04 #

Die Rechenleistung verdoppelt sich alle 18 Monate; Moment: durch MultiCore-Architektur geht's zur Zeit noch schneller.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 12:32 #

nope. das gesetz wurde umformuliert, sonst würde es schon lange nicht mehr gelten.
es geht bei moore's law (was übrigens kein "naturgesetz" ist, sondern eine stochastische prognose) um die anzahl der transistoren bzw die anzahl der integrierten schaltkreise auf einer einheit.

der multicore-trend macht das ganze nicht schneller, sondern war im gegenteil der einzige weg das "gesetz" nicht zu brechen. wenn das nicht nötig gewesen wäre, hätten wir heute singlecore-cpus mit 12GHz.

und die anzahl der transistoren bei multicore-cpus entspricht eben nicht der rechenleistung (die steigt über die jahre eben überhaupt nicht mehr exponentiell sondern eher logarithmisch). denn die meisten anwendungen und algorithmen lassen sich gar nicht oder nur ineffizient parallelisieren, womit entsprechende einzelanwendungen durch multicores auch nicht schneller sind.
nicht umsonst sind die einzelnen kerne seit jahren bei ca 3GHz stecken geblieben.

der vorteil für den user ergibt sich eher, durch das parallele ausführen mehrer solcher einzelanwendungen die auf einer multicore-cpu alle "echt" parallel und schnell laufen.

guapo 18 Doppel-Voter - 10383 - 9. Februar 2012 - 13:25 #

Ich spreche von installierter Leistung, nicht von Schnelligkeit - also Theorie genau wie von Moore postuliert. Es ist bekannt, dass die meisten Programme, die potentielle Leistung nicht ausnutzen - sieht man von den Virtualisierern und HPC ab. Wie Du richtig schreibst, kann man diese Blindleistung durch multi threading nutzbar machen.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 13:46 #

Ich kann aus Erfahrung berichten, dass z.B. meine 3d-Renderprogramme tatsächlich mit einer Verdopplung der Kerne fast doppelt so schnell Bilder rendern können. Auch ein Komprimiertool wie 7zip kann so gut skalieren. Aber es gibt auch viele Anwendungen, die sequentiell arbeiten und auf Zwischenergebnisse warten müssen und sich damit schlechter parallelisieren lassen.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 15:25 #

renderprogramme und archivierer lassen sich natürlich grandios parallelisieren. n klassisches gegenbeispiel wäre das sortieren. denn teilbereiche zu sortieren bringt nicht allzu viel, wenn man anschließend diese wiederum mit den teilbereichen machen muss.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 15:23 #

was moore ursprünglich vorraussagte, war einfach nur die verdopplung der anzahl der schaltkreise auf einer einheit. direkt in leistung übersetzen kann man das ja nicht.

guapo 18 Doppel-Voter - 10383 - 9. Februar 2012 - 15:38 #

Dann kann der geneigte Leser ja Dein "nope" und Deinen restlichen Einwand von oben ignorieren und mit Leistung oder bang for buck weiterdenken, so wie ich es gemeint habe.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 16:16 #

nein, denn entgegen deiner aussage, verdoppelt sich die rechenleistung eben nicht alle 1.5 jahre. und das ist auch nicht die aussage von moore's law. daher ist mein einwand berechtigt gewesen.

guapo 18 Doppel-Voter - 10383 - 9. Februar 2012 - 16:51 #

Mit Deinen Antworten widerlegst Du mitnichten die Leistungssteigerung von Systemen, die, wie Du ja selber einraeumst, nicht direkt abhaengig ist von der Transistoranzahl. Moore hast Du ins Spiel gebracht :)

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 17:36 #

da scheinst du nicht aufmerksam gelesen zu haben, denn ich habe nirgendwo behauptet, dass sich die leistung von system nicht mit der zeit steigern würde.
weiterhin hast du moore's law ins spiel gebracht ;)

guapo 18 Doppel-Voter - 10383 - 9. Februar 2012 - 18:05 #

Nope, Kommentar 9:04: weder Schaltkreise, Transistoren noch Moore.
Aus der Nummer kommst Du nicht raus.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 18:20 #

verleugnung deiner eigenen posts, du bist mir ja einer /ugly

siehe dein kommentar:
"Die Rechenleistung verdoppelt sich alle 18 Monate"

guapo 18 Doppel-Voter - 10383 - 9. Februar 2012 - 18:23 #

Leistung != Transistoren. EOD

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 18:25 #

das ist genau das, was ich dir geschrieben habe ;)

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 12:06 #

Schon damals beim Witcher 1 waren sehr detaillierte Nahaufnahmen (in einem PC-Spiel, und ja, mit der richtigen Hardware) Realität. Ich hatte das bewundert, wie detailliert Bump- und Glanz-Effekte verschiedener Materialien ausgearbeitet wurde, dass Metall und Leder deutlich andere und realistisch wirkende Eigenschaften hatten, dass selbst im Auge eine Spiegelung zu sehen war und Texturen sehr detailliert waren, in solchen Nahaufnahmen.

Ergo: es ist keine Zukunftsmusik. Es hängt eben vom jeweiligen Projekt ab und kann jetzt noch detaillierter als damals beim Witcher aussehen.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 12:34 #

das war ja vor allem nur eine frage der texturen in dem spiel. physkalisch aufwendige lichtberechnungen sind da noch mal ein anderes kaliber.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 13:48 #

Ja, natürlich. Aber die Demo zeigt doch, dass es mit 100 FPS läuft. Da ist also etwas Reserve. Und die Demo zeigt auch ein Extrem. So nah, dass man jede Pore sieht, geht die Kamera in einer Dialogszene nun auch nicht an die virtuellen Personen.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 15:26 #

technik-demo eben. das programm hat auch nichts anderes zu tun. weder muss es irgendwelche noch kommenden areale vorbereiten bzw streamen, noch KI berechnen oder sonstige anstalten machen.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 16:06 #

Das muss es in einer Cutscene auch nicht.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 16:17 #

eine cutscene muss auch nicht in echtzeit dargestellt werden.
siehe batman ac.

Dennis Ziesecke Freier Redakteur - P - 29696 - 9. Februar 2012 - 16:46 #

Dialogszenen mit Interaktionsmöglichkeiten lassen sich aber nicht so einfach vorrendern.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 17:37 #

umgekehrt lässt sich der grafische aufwand von in der spielwelt integrierten cutscenes nicht stark erhöhen.

Darth Spengler 18 Doppel-Voter - 9237 - 8. Februar 2012 - 15:52 #

Die Technik wird immer krasser ;)

Sp00kyFox 18 Doppel-Voter - 11163 - 8. Februar 2012 - 19:49 #

da sollte man sich nicht zu früh freuen. ähnliche grafik-demos gab es schon früher, siehe crysis2-faces-trailer.
die demo ist zwar beeindruckend, besteht aber aus nur einem hochpolygonalem gesicht mit sehr scharfen texturen und dem erwähnten rechenintensiven lichtmodell.

dieses lichtmodell, also "subsurface scattering" gibts schon lange. das problem ist einfach, dass bei einem normalen game-projekt die performance und der speicherbedarf nicht außer acht gelassen werden darf. in einem normalen spiel kommt es relativ selten vor, dass man gesichter aus einer sehr nahen ansicht sieht. da ist es effizienter nicht physkalisch korrekte, aber gut aussehende und schnellere shader für die gesichtsoberflächen zu nehmen. denn aus einer normalen entfernung der virtuellen kamera sieht das ganze auch gut aus.

wie hier schon jemand meinte.. bis man ohne weiteres nachdenken einfach auf solche intensiven lichtmodelle zurückgreift, wird das noch ne ganze weile dauern. bis dahin müssen die lichtmodelle noch ausgebaut und verfeinert werden und die performance eines standard-systems (ob nun konsole oder pc) muss erheblich größer sein als heute üblich.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 12:10 #

Es gibt in Spielen Detailstufen von Modellen (verschiedene Polygongrade), Texturen werden durch Mipmaps ebenfalls in der Entfernung in anderen Detailstufen gerendert und auch Materialien mit ihren Shadern (Lichtmodellen) können in der Entfernung vereinfacht werden. Zudem kann abhängig von der Hardware auf Vereinfachungen zurückgegriffen werden (Fallback-Methoden). Technisch ist das alles möglich und PC-Spiele wurden auf diese Weise in der Vergangenheit entwickelt, da eine Engine flexibel und skalierbar sein musste.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 12:22 #

ist ja alles korrekt was du sagst. sehe jetzt nur nicht, wieso das irgendein ein zu/widerspruch zu meinem kommentar sein soll.

denn die möglichkeit flexibler engines, ändert nicht an den punkten, dass sowohl die hardware als auch die software-ebene bisher noch nicht weit genug sind für solche lichtberechnungsmodelle. aus denselben obigen gründen wird man auch raytracing in nächster zukunft nicht im spielesektor verwenden.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 13:51 #

Also ich verstehe Dich nicht. Ich habe die Demo doch auf meinem System laufen lassen. Also kann sowohl Hard- als auch Software dieses Modell stemmen. Und wie oben bereits erwähnt, wird in einem Spiel auch nicht direkt an die Haut des Menschen gezoomt. Man kann hier sicher nochmal die Texturgröße halbieren.
Wenn man mal liest, was der Autor darüber geschrieben hat, dann sieht man auch, dass er mit ultra-realistischen Effekten für Tiefenunschärfe, HDR usw. gearbeitet hat. Er meint, dass solche Techniken durch andere aufwändige Techniken ergänzt werden müssen, damit die Illusion nicht verloren geht. Hier wurde also im Grunde alles auf Extrem geschraubt, wo man in einem Spiel nach wie vor Kompromisse finden kann.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 15:32 #

ich sprach ja nicht umsonst vom spielesektor. wie schon gesagt gibts diese technik schon lange, genauso wie auch voxel oder eben genanntes raytracing. und in grafik-demos wurden diese sachen auch schon alle mal in echtzeit vorgeführt (subsurface scattering im genannten crysis2-engine-trailer).

so etwas mit den ganzen anderen grafischen und rechenintensiven komponenten in einem spiel unterzubringen, ist etwas völlig anderes. schlussendlich wird man sich in dem bereich immer gegen realismus und für performance entscheiden um mit den frei gewordenen ressourcen weitere grafik-tricks anzuwenden, damit das ganze schlussendlich zwar schlussendlich physkalisch falsch, dafür aber spektakulär aussieht.

in grafikbereichnen hingegen wo es nicht um echtzeitanwendungen geht, ist genau das gegenteil der fall.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 16:09 #

Wir reden immer noch aneinander vorbei. Ich rede nicht davon, solch eine Technik im laufenden Spiel anzuwenden, sondern in Dialogen, Cutscenes, dort, wo man sehr nah an ein Gesicht kommt. Da wird keine Physik benötigt, keine Kollision berechnet, keine KI, kein Streaming, keine Portale für Okkludierungen geprüft. Da wird kaum mehr passieren, als in der Demo. Und ja, wenn das auf irgendeinem System nicht läuft, gibt es Fallback-Materialien, die weniger aufwändig sind.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 16:18 #

siehe oben. für statische sachen reicht es aus vorgerenderte szenen zu nehmen, was ja auch üblich ist. und da muss man sich nun überhaupt nicht beschränken. für interaktive szenen, sowas wie dialoge in einem rpg hingegen bleibt ja die restliche spielwelt nicht stehen.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 17:50 #

Das sehen viele Leute anders als Du. Um eine Welt konsistent darzustellen, werden gerne Cutscenes in Spielgrafik erzeugt. Zudem spart es Speicher, da Videos schon recht viele Daten benötigen.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 17:54 #

ich habe nicht gesagt, dass ich eine sache mehr bevorzugen würde.
in der spielgrafik erzeugte cutscenes verhindern nur, dass man die grafikroutinen in diesen sonderlich verändert. denn dann ist es mit der besagten konsistenz hinfällig.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 18:31 #

Man ändert ja nicht "sonderlich" die Grafikroutinen, wenn man in Nahaufnahmen durch einen Shader oder besser aufgelöste Texturen den Detailgrad erhöht. Die Konsistenz bleibt da definitiv besser erhalten, als wenn ich einen komplett anderen Renderer dafür nutze, anders ausleuchten muss und andere Beleuchtungsmathematik dahinter habe.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 18:31 #

das tut man eben schon, wenn man mal einfach das zugrunde liegende lichtberechnungsmodell swapped. denn subsurface scattering ist keine sache die du alleine durch shader verwirklichst. das geht vom prinzip eher in richtung raytracing.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 18:36 #

Nochmal, wir reden hier von Haut und von SSS, das nach wie vor kein Raytracing, sonder ein Fake ist. Und wenn die Haut in Detailaufnahmen anders gerendert wird, als in entfernten Aufnahmen, kann ich Dir aus Erfahrung sagen, dass es nicht auf einmal die Stimmung ändert oder inkonsistent wirkt. Der Rest der Szene bleibt ja nach wie vor genauso ausgeleuchtet und reflektiert Licht genauso, wie es vorher war. Und das wäre bei einem vorgerendertem Video definitiv nicht der Fall.

Nach Deiner Argumentation dürfte man in Nahaufnahmen und Cutscenes auch keine Tiefenunschärfe hinzufügen, wenn es so dramatisch die Konsistenz ändern würde, denn das ist ein zusätzlicher Postprocessing-Effekt, den man gewöhnlich im laufenden Spiel nicht einsetzt. Aber dennoch können solche Effekte cineastisch wirken, ohne gleich komplett fremd oder extern gerendert zu wirken. Ich rede hier aus Erfahrung.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 18:52 #

raytracing ist auch "fake". schließlich sind das alles keine abbildungen der realität. ganz zu schweigen, dass man nicht mal exakte physikalische modelle hat, sondern nur annäherungsweise welche auch im raytracing-bereich zu komplex sind.
raytracing lässt sich halt auch nach bedarf komplexer machen. die stalker-reihe hatte zB in ihrer grafikengine raytracing-elemente.

meiner erfahrung jedenfalls ist dem nicht so. wenn man mitten in einer szene das lichtmodell ändert, wird der betrachter den unterschied auch sehen können. und nein.. natürlich kannst du ein vorgerendertes video auch auf dem niveau der spielgrafik sein lassen. zwingt einem niemand dazu aufwendige cg-renderfilme zu machen. auch dafür gibts ja beispiele aufn markt.

bzgl tiefenunschärfe. das halte ich persönlich ohnehin für einen ziemlichen blödsinn. tiefenunschärfe ist ein effekt des sehens mit dem auge. die ebene die fokussiert wird ist scharf, alle anderen nicht. der renderer eines videospiels kann aber nicht wissen, auf welche ebene in der virtuellen szene der spieler guckt. das führt nur dazu, dass ständig irgendwelche sachen unscharf sind, obwohl man diese gerade anguckt.. was dem natürlichen sehen vollkommen zuwider ist.
ich kann daher nur aus eigener erfahrung sprechen, dass solche künstlichen effekte eben einen sehr unnatürlichen eindruck hinterlassen. immerhin lässt sich das in den meisten titeln abstellen.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 19:17 #

Du redest weiter an dem vorbei, was ich schildere. Das ist somit keine echte Diskussion.

Ja, du hast doch Recht, dass Tiefenunschärfe im laufenden Spiel störend sein kann. Aber genau das habe ich doch geschrieben, dass in der Cutscene, in einer Zwischensequenz gerne Tiefenunschärfe hinzugefügt wird, die eben nicht im laufenden Spiel eingesetzt wird, aus den Gründen, die Du erwähnt hast.
In einer Cutscene kann damit künstlerisch gestaltet werden. Der Blick des Zuschauers kann bewusst auf das Zentrum gelenkt werden, auf einen agierenden Helden, auf einen Gegenstand im Vordergrund, usw.

Zum Beleuchtungsmodell: Hier übertreibst Du ein wenig. Das Beleuchtungsmodell der Szene bleibt im Allgemeinen gleich. Nur weil die Beleuchtung der Haut aufwändiger wird, erzeugt man nicht gleich eine komplett andere Stimmung oder eine Inkonsistenz.

Sp00kyFox 18 Doppel-Voter - 11163 - 9. Februar 2012 - 19:26 #

in vorgerenderten cg-cutscenes mag das vlt gut kommen. persönlich habe ich jedenfalls in spielgrafik noch nie gut genutzte tiefenunschärfe gesehen. mag auch damit zusammenhängen, dass das ganze bisher eher wirkt wie wie vaseline auf der virtuellen kameralinse, anstatt einem echten optischen effekt.

und ich denke nicht, dass ich damit übertreibe. wenn sich schatten und lichtrelexionen auf dem gesicht der betreffenden person auf einmal verändern, wirkt das nicht gerade realistisch.

MachineryJoe 16 Übertalent - P - 4404 - 9. Februar 2012 - 19:45 #

Schatten und und Reflexionen verändern sich ja nicht auf einmal. In einer Cutscene wie beim Witcher 1 werden ja komplett andere Modelle und höher aufgelöste Texturen genutzt, als im laufenden Spiel. Da gibt es keinen fließenden Übergang, bei dem das auffallen würde.
Außerdem ist Haut zum größten Teil von Kleidung bedeckt, was weiter dazu beiträgt, dass man kaum in der Entfernung feststellen wird, dass es da weniger realistisch berechnet wurde.

Und ja, es gibt gute real-time Tiefenunschärfen, sogar schon in Indie-Engines wie der Unity, aber auch in UDK und CryEngine 3, wo man sehr viele Parameter einstellen kann inklusive Bokeh. Auf Konsolen sieht man sowas aber eher weniger.

Sp00kyFox 18 Doppel-Voter - 11163 - 10. Februar 2012 - 1:32 #

klar, wenn die szene an sich schon durch detailgrad und aufwand sich von der restlichen spielwelt unterscheidet (wie es zB nicht der fall ist bei der elder scroll reihe), dann macht das auch keinen utnerschied bzgl der grafischen konsistenz, wenn man da nun subsurface scattering verwendet.

avalonash 12 Trollwächter - 1147 - 9. Februar 2012 - 15:36 #

"Sein nächstes Ziel, so kündigt er an, ist eine realistischere Darstellung von Haaren."
Oh ja bitte!
Auf dem Gebiet besteht in meinen Augen viel mehr Handlungsbedarf als bei der Hautdarstellung. Wirklich gut aussehende Haare, die nicht nur wie ein gefrorener Wischmob auf dem Kopf sitzen, sondern sich auch realistisch mitbewegen, vermisse ich schon seit Jahren. Es gibt ein paar ganz wenige, passable Ausnahmen. Aber gerade in Rollenspielen sieht es oft noch schrecklich aus. Skyrims grafisch hässlichster Fleck sitzt (trotz langer Auswahl im Charaktereditor) zum Beispiel immer noch auf dem Kopf meines Helden.

Admiral Anger 24 Trolljäger - P - 49382 - 9. Februar 2012 - 17:00 #

Sehr schick :)

Kommentar hinzufügen

Neuen Kommentar abgeben
(Antworten auf andere Comments bitte per "Antwort"-Knopf.)
Mitarbeit