PM: Die visuellen Effekte von Ghost of Tsushima (Sony Playstation Blog)

PS4 PS5
Bild von GG-Redaktion
GG-Redaktion 259078 EXP - Redakteur,R10,S10,A10
Darf als Pro-Gamer die seltene „30“-Medaille tragen.Platin-Gamer: Hat den sehr hohen GamersGlobal-Rang 25 erreichtAlter Haudegen: Ist seit mindestens 10 Jahren bei GG.de registriertAlter Haudegen: Ist seit mindestens 5 Jahren bei GG.de registriertGold-Gamer: Hat den GamersGlobal-Rang 20 erreichtGold-Cutter: Hat 100 Videos gepostetArtikel-Schreiber: Hat 15 redaktionelle Artikel geschriebenAlter Haudegen: Ist seit mindestens 3 Jahren bei GG.de registriertMeister der Steckbriefe: Hat 1000 Spiele-Steckbriefe erstelltMeister-Tester: Hat 10 Spiele-/Technik-Tests veröffentlichtIdol der Massen: Hat mindestens 10.000 Kudos bekommenExtrem-Schreiber: Hat mindestens 1000 News geschrieben

12. Januar 2021 - 16:15 — vor 3 Jahren zuletzt aktualisiert
Dieser Inhalt wäre ohne die Premium-User nicht finanzierbar. Doch wir brauchen dringend mehr Unterstützer: Hilf auch du mit!
Ghost of Tsushima ab 29,99 € bei Amazon.de kaufen.

HINWEIS: DIES IST EINE PRESSEMITTEILUNG, KEINE REDAKTIONELLE NEWS

Wer die wunderschöne Insel Tsushima erkundet, wird dabei die vielen kleinen Details entdecken, die unser Team liebevoll erschaffen hat. Ein großer Gegensatz zu unserem Vorgängerprojekt inFAMOUS: Second Son, das mit seinen fulminanten Grafikeffekten nur so um sich warf. Mein Name ist Matt Vainio und ich bin der Lead Visual Effects Artist bei Sucker Punch. Wenn man mich fragt, was ich tue, antworte ich meist damit, dass meine Aufgabe vor allem darin besteht, Kunst- und Designprobleme mithilfe von Technologie zu lösen. Etwas, dass ich bei Sucker Punch schon seit inFAMOUS 2 mache. Heute möchte ich euch erzählen, wie wir den Übergang von den bombastischen Grafikeffekten hin zu einer realistischeren, aber wunderschönen Spielwelt voller Schlamm, Blut und Stahl geschafft haben. Außerdem verrate ich euch, wie wir die visuellen Effekte von Ghost of Tsushima erstellt haben.

Zu Beginn der Arbeiten an Ghost habe ich einige wichtige Bereiche ausgemacht, die – auf Grundlage des Projekts – verbessert werden mussten. Zunächst wollte ich das hohe Maß an Interaktivität tief in unsere Partikelsysteme integrieren. Für Second Son hatten wir bereits groß in unsere durch Ausdruck gesteuerten Partikelsysteme investiert, mit denen wir eine große Bandbreite an magischen Superkräften darstellen konnten. Bei Ghost of Tsushima lag eines meiner Hauptziele darin, dieses System zu übernehmen, aber es stärker auf das hohe Maß an Interaktivität auszurichten. Schon von Anfang war uns klar, welche entscheidende Rolle der Wind spielen würde und dass wir ihn in unsere Partikelsysteme und darüber hinaus einbinden mussten. Außerdem wollten wir die Tierwelt ergänzend einbinden, epische Aussichten mit einer zur Umwelt passenden Atmosphäre liefern und ganz besonders diese spezielle „Schlamm, Blut und Stahl“-Optik einfangen. Schlamm und Blut sollten sich ganz dynamisch durch Kämpfe und Bewegungen in der Spielwelt auf unseren Charakteren breitmachen. Wir haben die Partikel auf vielen Ebenen interaktiver gestaltet, dazu brauchte es aber mehr Daten von der Spielwelt. Ich will hier nur einige der dazu notwendigen Daten nennen: globaler Wind, vom Spieler verursachter Wind durch Bewegung, Charakter-Verdrängung, Positionsangaben des Geländes und des Wassers, Wetterangaben wie Feuchtigkeit, Tageszeiten und vieles mehr.

Das zweite Hauptziel bestand darin, im großen Maßstab zu bauen. Die Welt von Ghost of Tsushima war deutlich größer als die von Second Son, aber für die visuellen Effekte waren bei Sucker Punch während der ganzen Entwicklungszeit im Großen und Ganzen nur zwei Leute zuständig. Das hatte zur Folge, dass wir unsere Inhalte durch automatisierte Prozesse aktualisieren mussten – soweit das möglich war. Außerdem mussten wir die weiten Perspektiven mit dem dynamischen Wetter und dem 24-Stunden-Takt in Einklang bringen. Zuletzt haben wir noch einige Elemente manuell platziert. Die sollten den Spielern auf ihrer Erkundungsreise über die Insel Tsushima helfen und leiten.

Als zentrales Design-Element stand von Anfang an fest, dass sich alles bewegen sollte. Da lag es auf der Hand, dass Partikelsysteme auf diesem Gebiet hilfreich sein würden, unter anderem durch das Einbinden von leicht schwebenden Blättern oder Pollen in der Luft. Letztlich sind es aber viele Systeme, die zusammen die Illusion erzeugen, dass der Wind tatsächlich weht. Neben den Partikeln gibt es Bäume, das Gras, die Kleidung sowie Seile, die sich alle im Wind bewegen. Alle diese Elemente sind perfekt aufeinander abgestimmt, damit sie sich unter unterschiedlichen Windbedingungen passend bewegen. Diese globale Windrichtung haben wir in nahezu jeden einzelnen Effekt im Spiel eingebaut: Geht eine Bombe hoch oder wird ein Lagerfeuer angezündet, weht der Rauch in die richtige Windrichtung. Das trifft auf Feuer, Funken und Rauch zu – im Grunde auf so gut wie alles. Dabei fragen wir auch die Windgeschwindigkeit ab, um etwaige Turbulenzen einzuberechnen, sollte sich die Geschwindigkeit erhöhen.

Unser ursprünglicher Plan war es eigentlich nicht, das globale Windsystem als Navigationshilfe einzusetzen. Aber dann fragte Jason Connell, Art Director von Ghost, Adrian Bentley, einen unserer Lead Engineers, und mich, ob wir die Partikel nicht als Richtungswegweiser für eine Quest einsetzen können. Und das war die Geburtsstunde des „Windindikators“. Wir wollten dabei nicht, dass sich der Wind ständig dreht, damit die Partikel etwaige Hindernisse umgehen, sondern dass sie direkt auf das Ziel ausgerichtet sind und es an den Spielern liegt, den richtigen Weg zu finden. Das lag zum großen Teil daran, weil wir die Spieler zum Erkunden und Mitdenken beim Navigieren auffordern wollten. Sie sollten nicht stupide irgendeiner Benutzeroberfläche im Spiel ohne Nachdenken folgen. Die Partikel waren nur deshalb in der Lage, direkt zum Ziel zu weisen, weil sie Zugriff auf die Geländeinformationen hatten. Damit war es uns wiederum möglich, die Partikel über die Landschaft um den Spielern herum in Kenntnis zu setzen.

In meinen ersten Versuchen hefteten sich die Partikel noch stark an das Gelände, sie zogen sich eng an den Hügeln und Tälern entlang. Das war nicht ganz unproblematisch. Zunächst befinden sich an unseren Bergen viele Steinmodelle, um Felswände darzustellen. Aber diese Felswände sind kein Teil der Geländeinformationen, nur das darunterliegende dynamische, mosaikartige Gitter. Das hatte zur Folge, dass die Partikel durch die Stein- und Felsmodelle hindurch gingen und verschwanden. Der „Windindikator“ wurde zum Verwirrspiel. Außerdem wirkte es unnatürlich, wenn sich die Partikel so perfekt am Gelände entlang bewegten. Bei meinem nächsten Versuch konzentrierte ich mich darauf, die Partikel nach oben zu drücken, wenn es bergauf ging, und sie flach nach unten treiben zu lassen, wenn sich das Gelände schräg abwärts von ihnen wegbewegte. Ich fügte noch eine Aufwind-Geschwindigkeit für den Fall hinzu, dass sich der Bewegungspfad der Partikel mit Hügeln kreuzt. Dazu führte ich Tests ein. Bei jedem dieser Tests überprüfen die Partikel, wie nah sie dem Gelände kommen oder ob sie bereits darunter verschwinden würden. Sollten sie zu nah kommen oder darunter verschwinden, tritt die Aufwind-Geschwindigkeit in Erscheinung. Zuletzt sollten verschiedene Elemente, die sich je nach Umgebung ändern, den „Windindikator“ bereichern: Pampasflocken und -gräser auf den Feldern, Blätter im Wald, Asche in abgebrannten Gegenden und andere. Wie genau dieses System funktioniert, erkläre ich euch etwas später.

Über das Blattwerk sind alle Pflanzen mit der lokalen Windgeschwindigkeit verbunden. Für die jeweils eigenständige Steuerung der Stämme durch die Äste haben wir zusammen mit den Coding- und Environment-Teams gearbeitet. Am Ende erhielten wir so genau die Flexibilität, die wir zum Erschaffen der vielfältigen Bäume und Sträucher von Tsushima gebraucht haben. Zur allgemeinen Bewegungssteuerung von Stämmen und Ästen fügten wir noch das Rauschbild hinzu, das bei Laub durch Windstöße typischerweise ausgelöst wird.

Die Grasflächen und Pampasfelder waren ein besonders wichtiges Element, ja Symbol für das Spiel. Und sie machten viel Arbeit: Ihretwegen gab es zwischen den Rendering-, Environment- und VFX-Teams ein ständiges Hin und Her. Diese Felder sind eine Mischung aus prozedural-generierten Dreiecken für das Gras und vormodellierten Gegenständen für die Pampashalme und -büschel. Zuerst hatten wir versucht, die wellenartige Bewegung mithilfe von Partikelsystemen herzustellen, indem das Grass sich gegenseitig verdrängen sollte. Zwar war die visuelle Qualität des Grases gut, aber bei den Bäumen und Sträuchern sah es schlicht falsch aus. Außerdem belastete es die Performance zu sehr. Als zweiten Versuch fügten wir der Umwelt zwei Ebenen an prozeduralen Windböen hinzu. Die erste Ebene bildete ein größeres Rauschmuster, das sich in Windrichtung bewegt. Darüber legten wir eine Textur, die sich anhand des Geländes bewegt, um kleinere Details im Gras darzustellen. Der Vorteil dieser Methode (abgesehen von den Kostenverbesserungen) lag auf der Hand: das gröbere Rauschen der Windböen konnten wir auch auf die Bäume und Sträucher anwenden. Dadurch griffen die Bewegungen von Grass und Laub nahtloser ineinander über.

Am Ende haben wir die Verdrängungspartikelsysteme für das Gras doch eingesetzt, allerdings für den Fall, wenn sich der Spieler durch das Gras bewegt oder hindurch reitet. Das wurde bereits zuvor in Spielen umgesetzt. Eine unserer Schlüsselverbesserungen war aber, dass wir durch die Steuerung der Verdrängung mit dem Partikelsystem ein komplexeres Verhalten unserer Ausdrücke erreichen konnten. Eine dieser Verhaltensweisen bestand darin, dass sich das Gras auf realistische Art zurückbewegt, indem wir die Stärke der Verdrängung mit einer gedämpften Welle versahen. Dadurch schnellt das Gras nicht auf lineare, unnatürliche Weise in seine Ausgangsposition zurück. Das Video unten ist ein Beispiel für die Grasverdrängung und liefert eine Debug-Ansicht des Partikelsystems, von dem sie gesteuert wird. Die grünen Teile der Spur stehen für die Verdrängung und die roten Teile zeigen an, wo die Verdrängung nachlässt. Wenn ihr genau hinseht, bemerkt ihr, dass das Gras Verschiebungswerte in immer kleineren Mengen verliert und wieder dazugewinnt, je mehr sich die Spur von dem Helden entfernt. Das sorgt für einen natürlichen Bewegungswiderhall, wodurch das Gras sich naturgetreuer anfühlt.

Zu guter Letzt versah unser Charakter-Tech-Art-Team das Spiel mit dynamischen Stoffen und Seilen, da sie häufig an den Charakteren selbst verwendet werden. Jede der Seil- und Stoffsimulationen greift auf dieselben Winddaten zurück wie das Laub und die Partikel, wodurch die Illusion entsteht, dass ein richtiger Wind durchs Bild weht.

Anfangs gingen wir davon aus, dass alle Tiere, die vom VFX-Team erstellt wurden, nur aus der Ferne zu sehen sein würden. Doch im Laufe des Projekts wurde uns klar, dass sie eine größere Rolle spielen sollten. Für diese Funktion arbeiteten wir mit demselben Rendering-Programmierer zusammen, der während der Produktion von Second Son das Partikelsystem programmiert hatte: Bill Rockenbeck. Sein erster Schritt bestand darin, festzulegen, dass Partikel vollständig gestaltete und animierte Modelle erscheinen lassen konnten. Sobald dieses System lief, konnten wir die Orientierung dieser Modelle mithilfe derselben Informationen zur Geländeposition, die wir für den „Windindikator“ verwendet hatten, auf das Gelände anwenden, sodass sie – falls nötig – auch kollidieren können.

Wir fügten Tiere wie Frösche, Vögel/Kraniche, Fische, Krebse und Käfer hinzu. Diese Lebewesen reagieren auf Jin und andere Charaktere in der Welt. Indem wir alle Charaktere (darunter auch Jin) von einer Windsphäre mit niedrigem Wert umgaben, merken die Partikeleffekte der Tiere, wenn Menschen in der Nähe sind. Wir nutzen ein neues, an Bedingungen gekoppeltes Ereignissystem, um die Bewegung der Partikel zu ändern, wenn die Bedingungen erfüllt werden. So weichen die Tiere vor Menschen aus. Das System wurde ebenso auf Geschosse und Zusammenstöße angewandt, sodass Tiere auch von Pfeilen und Dolchen vertrieben werden.

Im folgenden Video könnt ihr eine frühere Version der interaktiven Effekte von Krebsen an den Stränden sehen. Wir fingen mit ein paar statischen Modellen an (wahrscheinlich meine bisher beste Modellarbeit) und wiederholten dann das Verhalten. Ich wollte, dass die Krebse einen Mindestabstand zu Jin wahrten, damit er nicht direkt auf sie tritt und sie sich so scheu verhalten, wie es in der Realität üblich ist. Um Fehler in den Verhaltensweisen leichter ausbessern zu können, werden die Krebse im Video weiß dargestellt, wenn sie sich bewegen, und orange, wenn sie stillhalten.

Da der Wind eines der Markenzeichen von Ghost of Tsushima ist, wussten wir, dass wir jede Menge Blätter hinzufügen müssten, die gleichzeitig stilvoll und natürlich wirken. Aus diesem Grund können zu jeder Zeit in Ghost Zehntausende Blätter im Bild zu sehen sein, die alle mit dem Wind, der Umgebung und den Charakteren interagieren.

Damit die Blätter realistisch genug wirken, arbeiteten wir sehr hart daran, dass sie je nach Gelände richtig landen. Jedes Blatt ist als Scheibe modelliert, die mithilfe von 3D-Berechnungen im Verhältnis zu den entsprechenden Drehmomenten rotiert, wenn sie den Boden berührt. Neben der Landung auf Gelände haben wir noch komplexere Verhaltensweisen modelliert: Blätter in Ghost landen auf Wasseroberflächen und fließen mit der Strömung, fallen an Wasserfällen hinab und gehen mit der Zeit unter, wenn sie länger treiben.

Gegen Ende der Entwicklungsphase von Ghost äußerte ein QA-Tester einen seltsamen Fehler: Blätter, die in Lagerfeuer fallen, bleiben auf dem Gelände unter oder neben den Feuern liegen, ohne zu brennen. Mir kam das auch merkwürdig vor und so platzierte ich eine Windquelle in Lagerfeuern, auf die fallende Blätter reagieren. Der nach oben strömende Luftzug hielt Blätter größtenteils von den Flammen fern und erwies sich als schönes Detail.

Duelle waren bereits in den ersten Tests ein beliebtes Element von Ghost. Von Anfang an ließen die Game Director dem VFX-Team freie Hand, um Szenarien zu erschaffen, in denen die Interaktivität unseres Spiels und Partikelsystems zur Geltung kommt.

Viele dieser Duelle versahen wir mit beständigen Blättern, die auf die Bewegungen des Spielers und der KI reagieren. Dafür griffen wir die Verdrängungstechnik des Grases auf und stellten ein, dass Partikel diese Informationen verarbeiten konnten. So konnten sich die Blätter auf elegante Weise teilen, wenn Charaktere sich schnell durch sie hindurch bewegten. Das Ziel für Duelle war nicht perfekter Realismus, sondern elegante Schönheit in der Bewegung. Wir verwendeten dasselbe oben beschriebene Ereignissystem, um zu erkennen, wann die Verdrängungswerte des Spielers eine bestimmte Schwelle überschritten. Dann legten wir einen Rückgang fest, durch den die Blätter sich von der ursprünglichen Bewegung nach kurzer Zeit wieder erholen und erneut in Bewegung versetzt werden konnten. Zudem arbeiteten wir mit einem Rauschmuster, durch das die Blätter kurzzeitig vom vorbeiziehenden Wind aufgehoben werden können, um Böen und die unbeständige Natur von Blättern zu simulieren.

Andere Arten von Duellen greifen stark auf weitere dynamische Partikelsysteme wie schwebende Laternen, ausgehende Kerzen, dichten Nebel, der sich an euren Füßen teilt, Blitzeinschläge und mehr zurück. Bei den Laternen verwendeten wir ähnliche Techniken wie bei den Blättern. Jede Laterne besteht aus einem Satz von Partikeln, die sich je nach Spielerverdrängung auf dem Wasser bewegen und wippen. Für die dynamischen Kerzen im zweiten Duell mit Ryuzo versahen wir die Schwerthiebe mit Windquellen und wandten sie auf die Kerzen an. Wenn der Wind eine bestimmte Schwelle überschreitet, löschten wir mit unserem Ereignissystem das Feuer und das Licht aus und ließen gleichzeitig aufsteigenden Rauch und einen Raucheffekt im oberen Bereich erscheinen. Darüber hinaus erzeugen Spieler Wind, indem sie sich abrollen und ausweichen. Also bringen schnelle Bewegungen in der Nähe dieser besonderen Duellkerzen das Feuer zum Erlöschen.

Wenn Charaktere laufen, sich abrollen, gleiten und auf den Boden fallen, wird ihr Modell dynamisch mit Schlamm versehen. Da die Charaktere in unserer Welt leben, war es für die richtige Stimmung des Spiels von Anfang an ein Ziel der künstlerischen Gestaltung, dass sie schmutzig werden können. In Animationen versehen wir verschiedene Stellen wie Knie, Ellbogen und Schultern mit „Schlammquellen“ in unterschiedlicher Menge, sodass Jin und andere Charaktere entsprechend vom Kampf mitgenommen aussehen. Wenn man sich bekannte Kampfszenen aus Samurai-Filmen ansieht, ist die Inspiration für Ghost klar erkennbar: Die Charaktere laufen mit ihren Füßen durch den Schlamm und haben durch ihre Interaktionen mit dem Boden Schlamm am Körper.

Ähnlich wie beim Schlamm gibt es auch Blutquellen, die die Charaktermodelle in Kämpfen mit Blut versehen, um ihren verwundeten Zustand zu zeigen. Jeder Aufprall führt zu Blut an der Stelle des Schwerthiebs und um diesen Punkt herum. Dies wurde nicht nur in systemischen Kämpfen, sondern auch in Filmsequenzen und geskripteten Momenten verwendet.

Neben den Blut an Charaktermodellen erzeugt außerdem jeder Angriff einen Partikeleffekt mit Tausenden Bluttropfen und Blutspuren. Jeder Tropfen landet auf der Geometrie in der Umgebung, und im Wasser lösen Bluttropfen sich sogar in Wölkchen auf, die mit der Strömung fließen.

Eine Schlüsselkomponente des Bauens im großen Maßstab war es, dass sich visuelle Effekte an die Umgebung anpassen und nicht von Hand platziert werden müssen. Wir wussten, dass wir mit unserem kleinen Team und der riesigen Welt, die wir zu füllen hatten, eine Art prozedurale Platzierung erschaffen mussten, da sich die Biome der Umgebung ständig änderten. Wir wollten nicht unsere ganze Zeit damit verbringen, Inhalte aufrechtzuerhalten, also musste das System sich selbst korrigieren können.

Hier ist ein einfaches Beispiel: Wir wollten, dass Partikelblätter nur in Waldbereichen fallen und nicht im Grasland. Unser erster Versuch war sehr brachial: Wir versahen die Bäume, die prozedural auf der Insel wuchsen, mit einem Effekt. Das ging jedoch schnell nach hinten los. Die Umgebung wies Hunderte von Bäumen in kleinen Bereichen auf, was für die Geometrie zwar gut war, aber die Partikelsysteme überforderte. Wir erlangten einen kleinen Erfolg, als wir einstellten, dass die Partikel nur erscheinen würden, wenn man den Bäumen sehr nahekam (ca. 15 Meter). Doch das war auch nicht die richtige Methode, da der Blick viel weiter reichte. Das andere Problem mit diesem Ansatz war, dass Blätter, die aus 12 Metern Höhe von den Baumkronen herabfallen, wenn der Spieler auf einem Pferd reitet, erst ins Sichtfeld gelangen, wenn dieser schon am Baum vorbei ist. Dadurch waren die Blätter oft überhaupt nicht sichtbar.

Unser zweiter Ansatz bestand darin, das Wachstumssystem auf dieselbe Weise zu verwenden wie die Umgebung. Wir platzierten die Partikelsysteme prozedural entlang den Bäumen im selben Bereich, indem wir auf dieselben Masken und Ausdrücke zurückgriffen. Bei diesem Ansatz mussten wir sich überlappende Kreise aus Blättern innerhalb einer teilweise komplexen Maskenform platzieren. Die Kreise wurden vom Rand der Maskenregeln aus ihrem Radius gedrängt. Dadurch entstanden aufgrund der Wachstumsregeln und Ausdrücke oft große Lücken ohne irgendwelche Blätter. Wir konnten dies zwar ausgleichen, indem wir mehr kleinere Quellen hinzufügten, aber das wirkte sich negativ auf die Leistung aus. Es war zudem schwierig, bestimmte Bereiche anzupassen. Wenn wir nämlich die Wachstumsregeln änderten, um die Dichte oder die Lücken in dem jeweiligen Bereich zu korrigieren, brachten wir damit andere Waldbereiche durcheinander, in denen zuvor alles in Ordnung gewesen war. Davon abgesehen funktionierte die Technik größtenteils, und obwohl sie noch einige Fehler aufwies, hätten wir sie beinahe so übernommen.

Der Screenshot in Bild 1 zeigt unser Wachstumswerkzeug, mit dem Partikel basierend auf den Regeln, die den Standort der Bäume festlegen, hinzugefügt werden. Es gibt viele Lücken, also entsprach diese Methode nicht unseren Anforderungen. In Bild 2 habe ich die Anzahl der wachsenden Partikelquellen erheblich gesteigert. Diese Methode hätte beinahe funktioniert, aber sie verbrauchte zu viel Leistung, die wir woanders dringender benötigten. Bild 3 zeigt unseren dritten Ansatz, die Biomkarte. Einer unserer Rendering-Programmierer arbeitete an einer Funktion für unser Beleuchtungsteam, die in Echtzeit auf Daten aus den Wachstumsmasken der Umgebung zurückgreifen würde. Ich fragte, ob wir an diese Technologie anknüpfen könnten, und glücklicherweise war das möglich. Dadurch erreichten wir, dass das Partikelsystem erkennen konnte, in welchem Biom die jeweiligen Partikel erzeugt wurden. Auf Bild 4 ist ein Debug-Partikelsystem zu sehen, das anzeigt, wie die Partikel diese Daten verarbeiten. Die blauen Bereiche sind Grasland und die grünen Bereiche sind Wald.

Der erste Durchlauf sah noch recht blockartig aus, aber sobald ich ein Rauschmuster zum Modifizieren der abgetasteten Informationen eingesetzt hatte, wurde es viel organischer und war einsatzbereit. Das wurde zum Kern unseres neuen Atmosphärensystems der Umwelt, wenn es auf andere Funktionen wie das Abfragen von Geländepositionen, Materialien und der Windrichtung traf. An jedem durchschnittlichen Standort waren wir so in der Lage, Hunderte von gewachsenen Partikelsystemen aus der Umwelt zu entfernen und mit einem einzigen System zu ersetzen. Das System folgte der Kamera und war im Hinblick auf die Biome der Umwelt viel präziser.

Auch wenn wir am Ende eine Menge unserer Effekte aus dem Wachstumssystem in die Echtzeit-Biomsysteme steckten, konnten wir es doch für einige Partikeleffekte in Ghost verwenden. Als Beispiele kann ich hier die Vögel am Rande der Wälder nennen, die Krabben und Möwen an den Stränden, die Reiher in den Reisanbaugebieten sowie die Kraniche in den Sümpfen. Zu guter Letzt kam das Wachstumssystem noch bei den Nebelbänken an den Waldesrändern zum Einsatz. Sobald das Environment-Team den Standort von Wäldern, Feldern und Stränden veränderte, konnte das VFX-Team in all diesen Fällen automatisch nachziehen.

In Ghost sind die Aussichtspunkte nicht nur entscheidend für das Gameplay – sie können euch beispielsweise helfen, Objekte zu finden – sie beeinflussen auch maßgeblich Ton und Stil des Spiels. Das Entdecken von neuen Quests sollte möglichst natürlich geschehen, daher haben wir mehrere Effekte geschaffen, mit deren Hilfe man Standorte für Quests und Herausforderung ausmachen kann. Da wären verschiedene Arten und Größen von Rauch zu nennen, die Missionen oder Herausforderungen markieren, Vögel, die über einer Haiku-Gelegenheit kreisen, Dampf, der über einem Onsen-Badehaus aufsteigt, und mehr.

Die visuellen Effekte von Ghost of Tsushima sind ein integraler Bestandteil der Spielewelt. Jedes Bild kommt nur zustande, weil verschiedene eigenständige Systeme zusammenarbeiten, um die dynamische Optik des Spiels auf ein noch höheres Niveau zu heben. Von den Biomen und tierischen Elementen im Vordergrund bis zu den Wettereffekten und Inhaltsmarkierungen im Hintergrund – die visuellen Effekte erwecken die Welt zum Leben und machen das Erkunden von Tsushima zu einer wahren Freude.

Danke fürs Lesen! Ich hoffe, euch hat der kleine Einblick in die visuellen Effekte von Tsushima gefallen. Wenn ihr noch mehr über die Technologie hinter unseren Spielen erfahren möchtet, dann schaut euch diesen Vortrag an, den ich 2014 auf der Game Developers Conference gehalten habe. In ihm erzähle ich mehr über durch Ausdruck gesteuerten Partikelsysteme.

Video abspielen

Mitarbeit