Zurück
Entdeckt, wie mithilfe von UEFN „Metallica: Fuel. Fire. Fury.“ in Fortnite erstellt wurde!
Das Fortnite-Team
„Metallica: Fuel. Fire. Fury.“ ist ein Fortnite-Erlebnis, in dem das Gefühl eines echten Konzertbesuchs mit fantastischen Grafikeffekten kombiniert wird, um euch in die Welt der Hardrock-Giganten Metallica zu entführen.
Das Erlebnis, das von Magnopus und Harmonix in Zusammenarbeit mit der Band erstellt wurde, nimmt die Spieler mit auf eine Reise durch fünf der bekanntesten Metallica-Songs, darunter „For Whom the Bell Tolls“, „Enter Sandman“ und „Master of Puppets“.
Aber das Erlebnis ist so viel mehr als einfach nur ein virtuelles Konzert.
Jeder Song verfügt über einzigartige spielbare Momente, die speziell auf den Rhythmus der Musik abgestimmt sind. Dadurch handelt es sich hier um eines der anspruchsvollsten Musikerlebnisse, die jemals in Fortnite geschaffen wurden.
Dies ist sogar noch beeindruckender, wenn man bedenkt, dass „Metallica: Fuel. Fire. Fury.“ in der UEFN-Version erstellt ist, die jetzt live ist und die sich jeder noch heute herunterladen kann!
„Wir haben das gesamte Erlebnis mit der öffentlich verfügbaren Version von UEFN erstellt“, sagt Dan Taylor, Creative Director bei Magnopus. „Wir haben keinen Zugriff auf irgendwelche künftigen Versionen oder so was bekommen. Wir nutzten einfach die Werkzeuge, auf die jeder zugreifen kann.“
In diesem Post gehen wir näher darauf ein, welche Vorteile das Team beim Erstellen von „Metallica: Fuel. Fire. Fury.“ in der Nutzung von UEFN sah, wie die Iteration und die Live-Spieltests dieses Projekt verändert haben, welche Tricks Magnopus und Harmonix angewendet haben, um trotz der Speicherbegrenzungen ein episches Erlebnis zu erschaffen, und auf vieles mehr.
Selbst für ein Unternehmen, das regelmäßig mit weltweit bekannten Marken zusammenarbeitet, ist eine Kollaboration mit Metallica etwas ganz Besonderes. „Jede einzelne Person in diesem Unternehmen wollte daran mitarbeiten“, sagt Sol Rogers, Global Director of Innovation bei Magnopus.
Beim Musikspielstudio Harmonix (Teil von Epic Games) ging diese Begeisterung auch mit einer gewissen Besorgnis einher, schließlich hatte man ja nicht nur die bestehenden Fans glücklich zu machen, sondern man stand auch vor der Aufgabe, Metallica einem neuen Publikum näher zu bringen.
„Schon seit der Gründung von Harmonix wollten wir immer ein Spiel mit Metallica machen“, sagt Helen McWilliams, Creative Director des Harmonix-Teams bei Epic. „Jeder von uns wollte sicherstellen, dass wir das auch hundertprozentig perfekt hinbekommen.“
Magnopus hat in der Vergangenheit bei einer Vielzahl von spektakulären immersiven Projekten immer wieder auf die Unreal Engine gesetzt. „Metallica: Fuel. Fire. Fury.“ entwickelte das Studio jedoch direkt in UEFN, damit das Erlebnis direkt dem Millionenpublikum von Fortnite zur Verfügung gestellt werden konnte.
Die Arbeit in der kollaborativen Live-Umgebung von UEFN brachte eine Vielzahl an Vorteilen mit sich. In der traditionellen Spieleentwicklung fühlen sich Teammitglieder oftmals sehr isoliert. Mit UEFN hat sich das alles geändert.
Schon direkt zu Beginn des Projekts ging das Team immer wieder in die Live-Umgebung, um dort gemeinsam zu iterieren. „Dies ermöglichte eine wunderbare Zusammenarbeit zwischen allen Teammitgliedern“, sagt Daryl Atkins, Executive Creative Director bei Magnopus. „Wir trafen uns jeden Tag in UEFN, spielten dort Sequenzen ab, iterierten sie und passten sie in Echtzeit an. Diese Feedbackschleife schließen zu können, war einfach fantastisch.“
Das Team stellte fest, dass dieser Entwicklungsansatz nicht nur für eine angenehmere, kooperativere Arbeitsweise sorgte, sondern auch Wunder für den kreativen Ideenfindungsprozess bewirkte. Eines der vielen wunderbaren Dinge an UEFN ist, wie schnell man darin Ideen sammeln kann“, sagt McWilliams. „Eine Idee kann so schnell in einer Version umgesetzt werden. Dadurch konnten wir Dinge versuchen und herumexperimentieren.“
Die Möglichkeit, Ideen rasch zu testen und zu iterieren, war von größter Bedeutung, als der riesige Umfang des Projekts immer deutlicher wurde.
Da jeder Abschnitt seinen ganz eigenen Kunststil und seine eigenen Gameplay-Elemente besitzt, besteht „Metallica: Fuel. Fire. Fire.“ eigentlich eher aus fünf eigenständigen Erlebnissen, die ein Autorennspiel mit rhythmusbasiertem Gameplay und mehr kombinieren.
Das Team musste sich nicht nur eine Reihe unterschiedlicher Umgebungen ausdenken, sondern auch für jeden Song maßgeschneiderte Gameplay-Elemente entwickeln – und subtile Wege finden, diese in das Erlebnis einzubinden.
Die richtige Balance zu finden zwischen der Musik und dem Gameplay war enorm wichtig. Das Team entwarf die spielbaren Abschnitte sorgfältig so, dass sie spannend sind, jedoch nie ablenkend wirken und den Spielern viel Raum bieten, jederzeit die Musik zu genießen.
Sie haben viel Zeit damit verbracht, über die wesentlichen Elemente der Songs nachzudenken und Wege zu finden, um deren Aussagen und Emotionen durch das Gameplay und die in UEFN verfügbaren Werkzeuge zu vermitteln. Beispielsweise werden im ersten Abschnitt das kraftvolle Riff und der energiegeladene, treibende Beat durch eine rasante Verfolgungsjagd durch eine Vulkanwelt wiedergegeben.
„Es hat wirklich Spaß gemacht, einige dieser Songs auf ihre Grundelemente herunterzubrechen und sie dann wieder zu einem überirdischen Erlebnis zu machen“, sagt McWilliams.
Um diese Interaktivität zu erreichen, hat das Team die musikalischen Elemente aus den Songs von Metallica zerlegt, um sie für das Gameplay zu nutzen. Es erstellte ein Beatmap-Raster in Unreal Engine 5 (UE5) und portierte es dann in UEFN. Über dieses Raster wurde dann das gesamte Erlebnis vorangetrieben.
„Das Raster war ein großartiges Werkzeug für alle Abteilungen, von den Grafikeffekten und der Beleuchtung bis hin zur Animation. So konnten wir sicherstellen, dass alles perfekt auf die Musik abgestimmt war“, sagt Atkins. „Wir konnten Gameplay-Ereignisse sowie Grafik- und Audioeffekte mit diesem Beatmap-Raster synchronisieren.“
Mithilfe der Beatmap konnte das Team das Gameplay im Takt der Musik steuern – von den vulkanischen Geysiren, die bei „Lux Æterna“ im Gleichtakt ausbrechen, bis hin zu den Glocken, die bei „For Whom the Bell Tolls“ perfekt im Takt schwingen.
Diese kleinen Details dienen dazu, den Rhythmus noch weiter zu verstärken – nicht nur optisch, sondern auch im Gameplay.
Ein weiteres wichtiges Werkzeug im Arsenal des Teams war der Mehrspur-Editor von UEFN, der Sequencer. Da es sich um ein weitgehend lineares Erlebnis handelte, wurde der Sequencer genutzt, um das Gameplay voranzutreiben und alles zu synchronisieren. So konnte sichergestellt werden, dass alles zur richtigen Zeit und bei den passenden Ereignissen abgespielt wird.
„Der Sequencer war bei diesem Projekt ein absoluter Lebensretter“, sagt Ross Beardsall, Lead Engineer bei Magnopus. „Wir haben das gesamte Erlebnis daran aufgehängt.“
Ein typisches Beispiel hierfür ist das Gameplay während des Bosskampfs im „Master of Puppets“-Abschnitt.
„Was mir am ‚Master of Puppets‘-Bosskampf so gefällt, ist, dass dabei einfach so viel cooles Zeug synchron zur Musik abläuft“, sagt Taylor. „Nicht nur seine Angriffe passen zum Rhythmus, sondern auch die Blitze schlagen passend zu den Gitarrenriffs ein und seine Augen leuchten genau zum Beat passend auf.“
Es entwickelte eine clevere Datenstreaming-Technik, mit der beim Spielen verschiedene Datenebenen geladen werden. So stellte das Team sicher, dass das Erlebnis immer den maximalen Speicher ausnutzt.
„Wir haben alle unsere Inhalte für jeden Abschnitt einzelnen Datenebenen zugeordnet, die wir in UEFN im laufenden Betrieb per Streaming einspeisen und entfernen können. Das bedeutete, dass wir für jeden dieser Abschnitte ein umfangreiches Erlebnis erstellen konnten und uns keine Gedanken darüber machen mussten, wie wir das alles in den vorgegebenen Speicher packen können“, sagt Beardsall.
Während die Ingenieure hart daran arbeiteten, die UEFN-Speichersysteme zu maximieren, versuchten die Creative Directors des Projekts, das Grafik- und Gameplaydesign bis an die Grenzen auszureizen. Sie waren immer davon überzeugt, dass sie etwasoptisch enorm Spektakuläres erschaffen können.
„Das Interessante bei der Entwicklung in UEFN ist, dass man dank der vollständigen Grafik-Pipeline von Unreal ein fantastisches Ergebnis erzielen kann“, sagt Taylor. „Der Trick besteht darin, die Gameplay-Elemente von Fortnite zu nehmen und sie auf innovative Weise zu verändern.“
Verse war beim Erstellen dieser innovativen Interaktionen essenziell. Das Team nutzte die Programmiersprache, um die in UEFN standardmäßig bereitgestellten Gameplay-Elemente miteinander zu verknüpfen.
Im „Master of Puppets“-Abschnitt müssen die Spieler beispielsweise im Takt der Musik auf sechs Blitzschienen grinden. Mit Verse wurde das System erstellt, das registriert, wo ein Spieler grindet, bei falschem Grind spezielle Grafikeffekte auslöst und bei richtigem Grind eine Auszeichnung vergibt.
Das Team setzte zudem sehr auf das Niagara-Grafikeffektsystem von Unreal, um für den Wow-Faktor zu sorgen und so Effekte zu kreieren, die bei einem echten Konzert nicht möglich wären.
„Wenn wir mit Kunden aus der Musikbranche zusammenarbeiten, möchten diese oft ihre Bühnenshow nachstellen. Wir geben ihnen die Möglichkeit, weit darüber hinauszugehen“, sagt Rogers. „Sie müssen sich keine Gedanken über Sicherheitsvorschriften machen. Nicht in unserer Welt. Man kann alle Niagara-Werkzeuge voll ausnutzen und im Feuer baden, wenn man das möchte. Man kann unter Wasser sein oder in den Weltraum fliegen. Es ist so aufregend, mit Künstlern zusammenzuarbeiten und ihnen diese neuen Werkzeuge und diese neuen Möglichkeiten an die Hand zu geben.“
Das Niagara-System kam im gesamten Erlebnis ausgiebig zum Einsatz – von den Rennszenen, den Feuerbällen und den Blitzeinschlägen bis hin zu den volumetrischen Lichtstrahlen, die den Zuschauerraum durchbohren.
„Das Niagara-System ist neben dem Sequencer wahrscheinlich das wertvollste Werkzeug für die Produktion musikalischer Erlebnisse, da wir damit sehr viel an Effekten und Spektakel liefern können, die bei diesen Konzerterlebnissen wirklich das Herzstück ausmachen“, sagt Atkins.
Für diejenigen, die wie Beardsall an den technischen Aspekten arbeiteten, waren die Spieltests in UEFN ziemlich einfach – alles war sofort einsatzbereit.
„Eines der besten Dinge an der Arbeit mit UEFN ist die Tatsache, dass wir keine Serverinfrastruktur einrichten mussten“, sagt er. „Wir konnten einfach alles von Epic verwenden, was sich bei Milliarden von Benutzern im Praxistest bereits bewährt hatte.“
Und da Fortnite für eine Reihe von Geräten optimiert ist, war es zudem einfach, es auf unterschiedlicher Hardware zu testen.
„In UEFN gibt es eine Vorschau all dieser verschiedenen Plattformen“, sagt Atkins. „So bekamen wir sofort einen Eindruck davon, wie das Erlebnis auf verschiedenen Geräten aussehen wird. Da uns aber auch die verschiedenen Plattformen zur Verfügung standen, konnten wir das Erlebnis auch auf der Hardware selbst testen. Das sorgte für eine wirklich kurze Feedbackschleife, mit der wir testen konnten, wie die Features auf verschiedenen Plattformen aussahen.“
Er stellt sich eine Zukunft vor, in der Künstler diese Erlebnisse nutzen, um ihr Publikum in die Welt ihrer Songs und Ideen mitzunehmen. „Für mich ist das der aufregendste Teil des Ganzen – neue Wege zu finden, nicht nur ein Konzerterlebnis zu schaffen, sondern auch Erlebnisse zu kreieren, die sich wie eine neue Ausdrucksform für die Künstler anfühlen“, sagt er.
Er hob hervor, wie die Patchwork-Geräte von UEFN, die zum Erstellen und Bearbeiten von Musik und Grafikeffekten verwendet werden, Künstlern die Möglichkeit geben, selbst mit dem Erstellen dieser Erlebnisse zu beginnen.
Diese Meinung teilt auch McWilliams. Sie hofft, dass „Metallica: Fuel. Fire. Fury.“ Künstler dazu animieren wird, sich an virtuellen Konzerten auszuprobieren – und somit völlig neue Arten von Erlebnissen zu erschaffen.
„Eines der größten Ziele dieses Projekts war es, Menschen zu inspirieren und ihnen zu zeigen, was mit UEFN möglich ist“, sagt sie. „Wir möchten wirklich, dass Bands, Künstler und Einzelpersonen da draußen ihre eigenen Inhalte für alle anderen erstellen.“
Das Erlebnis, das von Magnopus und Harmonix in Zusammenarbeit mit der Band erstellt wurde, nimmt die Spieler mit auf eine Reise durch fünf der bekanntesten Metallica-Songs, darunter „For Whom the Bell Tolls“, „Enter Sandman“ und „Master of Puppets“.
Aber das Erlebnis ist so viel mehr als einfach nur ein virtuelles Konzert.
Jeder Song verfügt über einzigartige spielbare Momente, die speziell auf den Rhythmus der Musik abgestimmt sind. Dadurch handelt es sich hier um eines der anspruchsvollsten Musikerlebnisse, die jemals in Fortnite geschaffen wurden.
Dies ist sogar noch beeindruckender, wenn man bedenkt, dass „Metallica: Fuel. Fire. Fury.“ in der UEFN-Version erstellt ist, die jetzt live ist und die sich jeder noch heute herunterladen kann!
„Wir haben das gesamte Erlebnis mit der öffentlich verfügbaren Version von UEFN erstellt“, sagt Dan Taylor, Creative Director bei Magnopus. „Wir haben keinen Zugriff auf irgendwelche künftigen Versionen oder so was bekommen. Wir nutzten einfach die Werkzeuge, auf die jeder zugreifen kann.“
In diesem Post gehen wir näher darauf ein, welche Vorteile das Team beim Erstellen von „Metallica: Fuel. Fire. Fury.“ in der Nutzung von UEFN sah, wie die Iteration und die Live-Spieltests dieses Projekt verändert haben, welche Tricks Magnopus und Harmonix angewendet haben, um trotz der Speicherbegrenzungen ein episches Erlebnis zu erschaffen, und auf vieles mehr.
Gemeinschaftliche Iteration mit UEFN
Magnopus ist ein Studio, das mithilfe kreativer Technologie immersive Erlebnisse erstellt, von denen man Schmetterlinge im Bauch bekommt. Diese Erlebnisse reichen von virtuellen Produktionen für Serien wie The Mandalorian und Fallout bis hinzu VR-Projekten, die sie zusammen mit der NASA durchführen.Selbst für ein Unternehmen, das regelmäßig mit weltweit bekannten Marken zusammenarbeitet, ist eine Kollaboration mit Metallica etwas ganz Besonderes. „Jede einzelne Person in diesem Unternehmen wollte daran mitarbeiten“, sagt Sol Rogers, Global Director of Innovation bei Magnopus.
Beim Musikspielstudio Harmonix (Teil von Epic Games) ging diese Begeisterung auch mit einer gewissen Besorgnis einher, schließlich hatte man ja nicht nur die bestehenden Fans glücklich zu machen, sondern man stand auch vor der Aufgabe, Metallica einem neuen Publikum näher zu bringen.
„Schon seit der Gründung von Harmonix wollten wir immer ein Spiel mit Metallica machen“, sagt Helen McWilliams, Creative Director des Harmonix-Teams bei Epic. „Jeder von uns wollte sicherstellen, dass wir das auch hundertprozentig perfekt hinbekommen.“
Magnopus hat in der Vergangenheit bei einer Vielzahl von spektakulären immersiven Projekten immer wieder auf die Unreal Engine gesetzt. „Metallica: Fuel. Fire. Fury.“ entwickelte das Studio jedoch direkt in UEFN, damit das Erlebnis direkt dem Millionenpublikum von Fortnite zur Verfügung gestellt werden konnte.
Die Arbeit in der kollaborativen Live-Umgebung von UEFN brachte eine Vielzahl an Vorteilen mit sich. In der traditionellen Spieleentwicklung fühlen sich Teammitglieder oftmals sehr isoliert. Mit UEFN hat sich das alles geändert.
Schon direkt zu Beginn des Projekts ging das Team immer wieder in die Live-Umgebung, um dort gemeinsam zu iterieren. „Dies ermöglichte eine wunderbare Zusammenarbeit zwischen allen Teammitgliedern“, sagt Daryl Atkins, Executive Creative Director bei Magnopus. „Wir trafen uns jeden Tag in UEFN, spielten dort Sequenzen ab, iterierten sie und passten sie in Echtzeit an. Diese Feedbackschleife schließen zu können, war einfach fantastisch.“
Das Team stellte fest, dass dieser Entwicklungsansatz nicht nur für eine angenehmere, kooperativere Arbeitsweise sorgte, sondern auch Wunder für den kreativen Ideenfindungsprozess bewirkte. Eines der vielen wunderbaren Dinge an UEFN ist, wie schnell man darin Ideen sammeln kann“, sagt McWilliams. „Eine Idee kann so schnell in einer Version umgesetzt werden. Dadurch konnten wir Dinge versuchen und herumexperimentieren.“
Die Möglichkeit, Ideen rasch zu testen und zu iterieren, war von größter Bedeutung, als der riesige Umfang des Projekts immer deutlicher wurde.
Da jeder Abschnitt seinen ganz eigenen Kunststil und seine eigenen Gameplay-Elemente besitzt, besteht „Metallica: Fuel. Fire. Fire.“ eigentlich eher aus fünf eigenständigen Erlebnissen, die ein Autorennspiel mit rhythmusbasiertem Gameplay und mehr kombinieren.
Das Team musste sich nicht nur eine Reihe unterschiedlicher Umgebungen ausdenken, sondern auch für jeden Song maßgeschneiderte Gameplay-Elemente entwickeln – und subtile Wege finden, diese in das Erlebnis einzubinden.
Die richtige Balance zu finden zwischen der Musik und dem Gameplay war enorm wichtig. Das Team entwarf die spielbaren Abschnitte sorgfältig so, dass sie spannend sind, jedoch nie ablenkend wirken und den Spielern viel Raum bieten, jederzeit die Musik zu genießen.
Sie haben viel Zeit damit verbracht, über die wesentlichen Elemente der Songs nachzudenken und Wege zu finden, um deren Aussagen und Emotionen durch das Gameplay und die in UEFN verfügbaren Werkzeuge zu vermitteln. Beispielsweise werden im ersten Abschnitt das kraftvolle Riff und der energiegeladene, treibende Beat durch eine rasante Verfolgungsjagd durch eine Vulkanwelt wiedergegeben.
„Es hat wirklich Spaß gemacht, einige dieser Songs auf ihre Grundelemente herunterzubrechen und sie dann wieder zu einem überirdischen Erlebnis zu machen“, sagt McWilliams.
Um diese Interaktivität zu erreichen, hat das Team die musikalischen Elemente aus den Songs von Metallica zerlegt, um sie für das Gameplay zu nutzen. Es erstellte ein Beatmap-Raster in Unreal Engine 5 (UE5) und portierte es dann in UEFN. Über dieses Raster wurde dann das gesamte Erlebnis vorangetrieben.
„Das Raster war ein großartiges Werkzeug für alle Abteilungen, von den Grafikeffekten und der Beleuchtung bis hin zur Animation. So konnten wir sicherstellen, dass alles perfekt auf die Musik abgestimmt war“, sagt Atkins. „Wir konnten Gameplay-Ereignisse sowie Grafik- und Audioeffekte mit diesem Beatmap-Raster synchronisieren.“
Mithilfe der Beatmap konnte das Team das Gameplay im Takt der Musik steuern – von den vulkanischen Geysiren, die bei „Lux Æterna“ im Gleichtakt ausbrechen, bis hin zu den Glocken, die bei „For Whom the Bell Tolls“ perfekt im Takt schwingen.
Diese kleinen Details dienen dazu, den Rhythmus noch weiter zu verstärken – nicht nur optisch, sondern auch im Gameplay.
Ein weiteres wichtiges Werkzeug im Arsenal des Teams war der Mehrspur-Editor von UEFN, der Sequencer. Da es sich um ein weitgehend lineares Erlebnis handelte, wurde der Sequencer genutzt, um das Gameplay voranzutreiben und alles zu synchronisieren. So konnte sichergestellt werden, dass alles zur richtigen Zeit und bei den passenden Ereignissen abgespielt wird.
„Der Sequencer war bei diesem Projekt ein absoluter Lebensretter“, sagt Ross Beardsall, Lead Engineer bei Magnopus. „Wir haben das gesamte Erlebnis daran aufgehängt.“
Ein typisches Beispiel hierfür ist das Gameplay während des Bosskampfs im „Master of Puppets“-Abschnitt.
„Was mir am ‚Master of Puppets‘-Bosskampf so gefällt, ist, dass dabei einfach so viel cooles Zeug synchron zur Musik abläuft“, sagt Taylor. „Nicht nur seine Angriffe passen zum Rhythmus, sondern auch die Blitze schlagen passend zu den Gitarrenriffs ein und seine Augen leuchten genau zum Beat passend auf.“
Umgehung der Speicherbegrenzungen durch Datenstreaming
Damit sich jeder Song in „Metallica: Fuel. Fire. Fury.“ auch wirklich ganz individuell anfühlt, musste das Team bezüglich der Speicherbegrenzungen auf Fortnite-Inseln die Grenzen des Möglichen ein wenig verschieben.Es entwickelte eine clevere Datenstreaming-Technik, mit der beim Spielen verschiedene Datenebenen geladen werden. So stellte das Team sicher, dass das Erlebnis immer den maximalen Speicher ausnutzt.
„Wir haben alle unsere Inhalte für jeden Abschnitt einzelnen Datenebenen zugeordnet, die wir in UEFN im laufenden Betrieb per Streaming einspeisen und entfernen können. Das bedeutete, dass wir für jeden dieser Abschnitte ein umfangreiches Erlebnis erstellen konnten und uns keine Gedanken darüber machen mussten, wie wir das alles in den vorgegebenen Speicher packen können“, sagt Beardsall.
Während die Ingenieure hart daran arbeiteten, die UEFN-Speichersysteme zu maximieren, versuchten die Creative Directors des Projekts, das Grafik- und Gameplaydesign bis an die Grenzen auszureizen. Sie waren immer davon überzeugt, dass sie etwasoptisch enorm Spektakuläres erschaffen können.
„Das Interessante bei der Entwicklung in UEFN ist, dass man dank der vollständigen Grafik-Pipeline von Unreal ein fantastisches Ergebnis erzielen kann“, sagt Taylor. „Der Trick besteht darin, die Gameplay-Elemente von Fortnite zu nehmen und sie auf innovative Weise zu verändern.“
Verse war beim Erstellen dieser innovativen Interaktionen essenziell. Das Team nutzte die Programmiersprache, um die in UEFN standardmäßig bereitgestellten Gameplay-Elemente miteinander zu verknüpfen.
Im „Master of Puppets“-Abschnitt müssen die Spieler beispielsweise im Takt der Musik auf sechs Blitzschienen grinden. Mit Verse wurde das System erstellt, das registriert, wo ein Spieler grindet, bei falschem Grind spezielle Grafikeffekte auslöst und bei richtigem Grind eine Auszeichnung vergibt.
Das Team setzte zudem sehr auf das Niagara-Grafikeffektsystem von Unreal, um für den Wow-Faktor zu sorgen und so Effekte zu kreieren, die bei einem echten Konzert nicht möglich wären.
„Wenn wir mit Kunden aus der Musikbranche zusammenarbeiten, möchten diese oft ihre Bühnenshow nachstellen. Wir geben ihnen die Möglichkeit, weit darüber hinauszugehen“, sagt Rogers. „Sie müssen sich keine Gedanken über Sicherheitsvorschriften machen. Nicht in unserer Welt. Man kann alle Niagara-Werkzeuge voll ausnutzen und im Feuer baden, wenn man das möchte. Man kann unter Wasser sein oder in den Weltraum fliegen. Es ist so aufregend, mit Künstlern zusammenzuarbeiten und ihnen diese neuen Werkzeuge und diese neuen Möglichkeiten an die Hand zu geben.“
Das Niagara-System kam im gesamten Erlebnis ausgiebig zum Einsatz – von den Rennszenen, den Feuerbällen und den Blitzeinschlägen bis hin zu den volumetrischen Lichtstrahlen, die den Zuschauerraum durchbohren.
„Das Niagara-System ist neben dem Sequencer wahrscheinlich das wertvollste Werkzeug für die Produktion musikalischer Erlebnisse, da wir damit sehr viel an Effekten und Spektakel liefern können, die bei diesen Konzerterlebnissen wirklich das Herzstück ausmachen“, sagt Atkins.
Spieltests auf mehreren Plattformen
Das Team stellte zudem fest, dass die Nutzung von UEFN nicht nur beim Design des Erlebnisses einen Paradigmenwechsel darstellte, sondern auch bei den Spieltests. Tagtäglich stürzte sich das gesamte Team in Fortnite und spielte die neueste Version. „Wir haben offen und ehrlich darüber diskutiert, was funktioniert und was nicht. So konnten wir sehr schnell herausfinden, auf welche Elemente wir uns am meisten konzentrieren und welche Dinge am meisten Spaß machen und ins Spiel eingebaut werden sollten“, sagt Taylor.Für diejenigen, die wie Beardsall an den technischen Aspekten arbeiteten, waren die Spieltests in UEFN ziemlich einfach – alles war sofort einsatzbereit.
„Eines der besten Dinge an der Arbeit mit UEFN ist die Tatsache, dass wir keine Serverinfrastruktur einrichten mussten“, sagt er. „Wir konnten einfach alles von Epic verwenden, was sich bei Milliarden von Benutzern im Praxistest bereits bewährt hatte.“
Und da Fortnite für eine Reihe von Geräten optimiert ist, war es zudem einfach, es auf unterschiedlicher Hardware zu testen.
„In UEFN gibt es eine Vorschau all dieser verschiedenen Plattformen“, sagt Atkins. „So bekamen wir sofort einen Eindruck davon, wie das Erlebnis auf verschiedenen Geräten aussehen wird. Da uns aber auch die verschiedenen Plattformen zur Verfügung standen, konnten wir das Erlebnis auch auf der Hardware selbst testen. Das sorgte für eine wirklich kurze Feedbackschleife, mit der wir testen konnten, wie die Features auf verschiedenen Plattformen aussahen.“
Die Zukunft der musikalischen Erlebnisse liegt in Fortnite
Atkins ist davon überzeugt, dass wir gerade erst an der Oberfläche dessen kratzen, was bei virtuellen Musikerlebnissen möglich ist, insbesondere, wenn es um das Gameplay geht.Er stellt sich eine Zukunft vor, in der Künstler diese Erlebnisse nutzen, um ihr Publikum in die Welt ihrer Songs und Ideen mitzunehmen. „Für mich ist das der aufregendste Teil des Ganzen – neue Wege zu finden, nicht nur ein Konzerterlebnis zu schaffen, sondern auch Erlebnisse zu kreieren, die sich wie eine neue Ausdrucksform für die Künstler anfühlen“, sagt er.
Er hob hervor, wie die Patchwork-Geräte von UEFN, die zum Erstellen und Bearbeiten von Musik und Grafikeffekten verwendet werden, Künstlern die Möglichkeit geben, selbst mit dem Erstellen dieser Erlebnisse zu beginnen.
Diese Meinung teilt auch McWilliams. Sie hofft, dass „Metallica: Fuel. Fire. Fury.“ Künstler dazu animieren wird, sich an virtuellen Konzerten auszuprobieren – und somit völlig neue Arten von Erlebnissen zu erschaffen.
„Eines der größten Ziele dieses Projekts war es, Menschen zu inspirieren und ihnen zu zeigen, was mit UEFN möglich ist“, sagt sie. „Wir möchten wirklich, dass Bands, Künstler und Einzelpersonen da draußen ihre eigenen Inhalte für alle anderen erstellen.“