Dit is een korte introductie van hoe de meest opvallende aspecten van elke genomineerde film in de categorie Beste visuele effecten voor de 85ste Academy Awards werden behaald. Dit artikel beschrijft het maken van films: Prometheus, The Avengers, Life of Pi, Snow White en the Huntsman and The Hobbit.
LV-223 is de planeet waar het Prometheus-ruimteschip aankomt. De kunstenaars creëerden veel conceptafbeeldingen om te voorspellen hoe de LV-223-planeet er zou uitzien. Om de atmosfeer van de planeet te creëren, realiseerde het team een aantal luchtopnamen in IJsland, die vervolgens werden gecombineerd met cloudachtergronden van het VFX-team. Na een grondige blik op de conceptafbeeldingen, vond het team een geschikt landschap dat paste bij hun visie, genaamd Wadi Rum in Jordanië.
Het team analyseerde het gebied met behulp van satellietbeelden van Google Earth en samen met digitale hoogtebestanden reconstrueerden ze het landschap in Maya en voor de texturen fotografeerde het team Hi-Res 360 HDRI's van de valleien van Wadi Rum, waardoor op deze manier de digitale omgeving werd gecreëerd . Ook voor ground-level shots van de planeet ging het team naar het vulkanische terrein van Hekla, gelegen in IJsland.
Bron: http://www.moving-picture.com/
De Engineer wordt gepresenteerd als een wezen dat lijkt op een geïdealiseerde mens, die naar de aarde is gekomen om het met leven te zaaien. Het was een geweldige uitdaging om een fotoreale digitale humanoïde vlak bij de camera neer te zetten. De eerste taak was om hun sub-surface scattering (SSS) -algoritmen te verbeteren om een geloofwaardig werk met close-uppersonages te produceren, dus gingen ze over op een translucentie gekwantiseerd-diffusie (QD) -model, waardoor ze kunnen lijken op huidcomplex-combinatie van verspreid en oppervlakte-eigenschappen nauwkeurig. Aan de andere kant had het team een harde taak om precies de bewegingen van een fysieke acteur op de plaat te matchen met een siliconenprothese pak met die van het digitale karakter, dit toevoegend aan het feit dat de hele film in stereo is opgenomen. Het team moest afzwakken en uitbreiden hoe ze normaal de spieren zouden doen, maar ook wat meer leven toevoegen dan de prothese normaal zou krijgen.
Bron: afbeelding genomen van de originele Blu-ray-kopie
De Orrery is een interactieve 3D-kaart van het bekende universum. Deze 3D-weergave van het universum heeft tussen de 80 en 100 miljoen polygonen. De scène waarin de Orrery verschijnt, werd gefilmd in de James Bond 007 fase, waarbij de acteur alleen interactie had met een bol, die vervolgens digitaal werd verwijderd om een van de planeten te simuleren. Deze opnames duurden enkele weken om alleen een complete opname te maken, dus het bevat de diepe compositietools van Nuke, die in plaats van platte kaders 3D-gegevens kunnen renderen, die vervolgens in 3D-ruimte worden gecombineerd, waardoor de 3D-ruimte kleiner wordt op deze manier de rendering tijd. Het team heeft ongeveer 7 maanden lang de omgevingen, effecten en personages geproduceerd om deze vervolgens in de live 3D-stereoscopische beelden te integreren.
Bron: http://www.fuelvfx.com/
Deze video toont je de verbluffende VFX-scènes, hoe ze het hebben gemaakt en enkele scènes van compositing.
Voor veel van de scènes in deze film waren CG-extensies vereist en Luma Pictures, Fuel VFX en Trixter hadden de leiding hierover. Voor de slagvolgorde van New York, bouwde het team een set in New Mexico, die 40 ???? groene schermen aan elke kant, enkele beschadigde auto's, stof en puin.
Het team bouwde de stad rond de set door bijna 2000 tegelbollen te fotograferen, waardoor ze een soort Google Street-weergave in hoge resolutie creëerden, en ze voegden ook CG-stof, puin, rook, sintels toe en elk venster werd vervangen door een CG-versie met verbeterde reflecties om te voorkomen dat de omgeving te statisch leek.
Het team bouwde een bibliotheek met digitale middelen die ze gebruikten om de NY-straten te bevolken, terwijl het team alle mensen, auto's en objecten uitdeelde om een heldere textuur te krijgen.
Bron: http://www.youtube.com/watch?v=MnQLjZSX7xM
Om dit personage te creëren, begon het team met de creatie van digitale tweepersoonskamers van Mark Ruffalo, beginnend met een live-scan van de acteur, die later werd gewijzigd in ZBrush om The Hulk te worden, met behoud van het aspect van de originele acteur. Dit werd bereikt door Ruffalo tot op het poriënniveau te bestuderen, ze gooiden tanden, schoten de hoeken van zijn oogballen, maakten beelden van zijn tandvlees, ruimte tussen vingers, zelfs elk haar, mol of litteken, zijn eigenlijke huid werd gescand en zet de Hulk aan.
Een van de grootste problemen die ze hadden was om de huidskleur te beheren, nadat ze de oorspronkelijke huidlook in verschillende omgevingen, binnen, hemelsblauw, enz. Hadden gedaan, veranderde zijn kleur zozeer in elk shot dat het team hard moest werken om behoud consistentie. Zowel het gezicht als de lichaamsbeweging waren een naadloze integratie van motion capture en keyframe-animatie. Er was veel werk nodig om de prestaties van de acteur correct te laten lezen en het gewicht van het bewegingsrecht van het personage.
Bron: http://marvel.com/avengers_movie
De S.H.I.E.L.D Helicarrier is zeker het grootste visuele effect-item van de film. De truc om zo'n geloofwaardig voertuig te maken, was de integratie van aspecten en functies die aanwezig zijn in de werkelijkheid. Daarom was het ontwerp gebaseerd op een vliegdekschip, waardoor een basis werd gelegd die het publiek vertrouwd zou zijn. De toevoeging van startstrips, ontploffingsdeuren en afleidingskabels, bewegende voertuigen en digitale bemanning op de set verkoopt de maat van het voertuig. Alle modellen zijn gemaakt in combinatie met Maya en 3ds Max.
Met behulp van Flowline voltooide het team verschillende soorten watersimulaties, van vlakke oceaan tot zwaar bubbelen en het druppelende water wanneer het vaartuig uit de zee opsteeg, met een compositie met een regenboogeffect en Nuke. Voor de binnenste schermen van het schip werden verschillende lege glaspanelen gemaakt, voor de latere toevoeging van zowel 2D- als 3D-elementen gegenereerd in After Effects en Cinema 4d door Cantina.
Bron: http://marvel.com/avengers_movie
Deze video toont je de verbluffende VFX-scènes, hoe ze het hebben gemaakt en enkele scènes van compositing.
Richard Parker is de Bengaalse tijger, die het personage tijdens zijn schipbreuk vergezelt. Rhythm & Hues was verantwoordelijk voor het creëren van deze realistische CG-tijger. Het team begon honderden uren referentiemateriaal van echte tijgers te bestuderen, en voor elke foto zou er een referentie zijn om op te baseren, en op deze manier de mogelijkheid te vermijden om de tijger als een mens te laten reageren, wat tegen zou zijn van het hele punt van de film.
Bijna 90% van Richard Parker is CG. Echte tijgers werden slechts voor een paar schoten gebruikt, waaronder één wanneer de tijger in de oceaan zwemt om een vis te eten.
Het team begon met het skelet, om basisbewegingen te controleren en voegde vervolgens een spierenstelsel toe. Het gezicht was een van de belangrijkste aspecten van Richard Parker; de gezichtstuigage was een combinatie van een meer door spieren aangedreven onderlaag met meer mengvormen aan de bovenkant, die gedeeltelijk op procedurele wijze opnieuw werden gemaakt. Een ander belangrijk aspect is de huid en de vacht, het team gebruikte ondergrondse verstrooiing die de vacht slechts een klein beetje verzachtte, zodat het licht dieper in de tijger en zijn vacht doordrong. Het was meestal raytraced en het team gebruikte zoveel mogelijk HDRI om Richard Parker zijn omgeving volledig te laten weerspiegelen. Al deze aspecten maken van Richard Parker een van de beste fotorealistische CG-dieren ooit gemaakt.
Bron: http://www.flickr.com/photos/lifeofpimovie/8020528490/in/photostream/
De scènes in de oceaan werden gefilmd in een golf-genererende tank van 230 bij 100 voet in Taiwan en bevatten 1,7 miljoen gallons water ...
Gedurende meer dan 50 minuten van de film is het personage alleen in de oceaan met alleen een Bengaalse tijger, genaamd Richard Parker, en zoals Westenhofer zei, was de uitdaging voor het team om de oceaan zoveel mogelijk een personage te laten zien. De scènes in de oceaan werden gefilmd in een golf-genererende tank van 230 bij 100 voet in Taiwan en bevatten 1,7 miljoen gallons water, de set was volledig omringd door blauwschermen en een geverfd raster om het volgen te ondersteunen.
Het team werkte met Scanline aan de implementatie van een nieuwe oppervlaktesimulatiemethode genaamd "Refined Sheet" voor Flowline, die geanimeerde geometrie gebruikte als basislaag voor de simulatie die in Maya was gemaakt met behulp van Tessendorf en Gestner golfdeformers, gevolgd door de emissie van een dun vel voxels erover om de waterstroom en interacties op te lossen. Hierdoor konden ze de hoeveelheid details op het wateroppervlak vergroten, en eindigden ze met de simulatie van wat ze "de elementen" noemen, de straal op de top van de golven, die zou worden als de wind ze opvangt, bellen die zouden worden schuim bij het opstaan naar de oppervlakte. Het is heel belangrijk om die elementen in balans te krijgen om het uiterlijk te bereiken en om de details te krijgen die nodig zijn voor die lange opnames, waarbij honderden miljoenen deeltjes in elk shot worden gesimuleerd.
Bron: http://www.flickr.com/photos/lifeofpimovie/8020537924/in/photostream/
Er zijn heel veel momenten in deze film die je de adem benemen met de 3D-vaardigheden, waarbij je allerlei soorten dieren en voorwerpen voor je neerzet, maar ook laat het je de diepte van de oceaan verkennen en nog een ongelooflijke omgeving. Een van de uitdagingen voor het team was om het leven in stereo op water te schieten, omdat water erg reflectief is, afhankelijk van je gezichtspunt krijg je verschillende reflecties, om dit probleem op te lossen, automatische hulpmiddelen verwerkte dispariteitskaarten en een stereo kwaliteitscontrolestudio handmatig controleerde elke scène en repareerde ze.
Een ander aspect dat je doet voelen dat je er echt bent, is de lucht, R & H gebruikte de aangepaste tool Rampage, een software voor 3D-projectiekaart waarmee het team gemakkelijk de lucht kon vervangen door hun eigen matte schilderijen in elk shot, het team genereerde meer dan 110 volledige HDRI-skies in stereo 3D. Met Rampage was het team in staat om hun aangepaste matte schilderijen te projecteren op basis 3D-geometrie en deze in realtime te bekijken, waardoor op deze manier bliksem referentiebeelden werden gegenereerd voor de andere teams.
Bron: http://www.eonline.com/news/364868/life-of-life-of-pi-5-reasons-the-movie-was-deemed-unfilmable
Deze video toont je de verbluffende VFX-scènes, hoe ze het hebben gemaakt en enkele scènes van compositing.
Een van de meest opmerkelijke effecten van de film is de scène waarin de koningin haar beroemde vraag stelt: "Wie is de mooiste van allemaal?" naar een vloeibare en metalen spiegelmens die uit haar muur komt.
Het idee voor de man kwam toen de regisseur een sculptuur zag van Kevin Francis Gray, Face-Off genaamd, en hem vroeg om het opnieuw te ontwerpen voor de film.
Het team organiseerde een studioopname voor een dag om veel vloeistoffen in slow motion op te nemen om te ontdekken hoe verschillende soorten materialen zouden reageren in de echte wereld. De molen gebruikte Maya nCloth voor de simulatie van de vloeibare vorm van de Mirror Man en veel aangepaste krachten om de vorm van het doek te regelen totdat deze omhoog komt in de vaste figuur. Op de set stond Charlize Theron voor een reflecterende prop met een Red Epic Camera erin om de actrice-performance vast te leggen. Dit werd toen gebruikt voor de reflecties op de Mirror Man met behulp van UV-normals en puntpositie in de wereldruimte om de blik te beheersen, maar de echte fysieke reflectie zou haar bijna onzichtbaar gemaakt hebben, dus ze hebben het bedrogen en een shader ontwikkeld die veel verschillende had vervagen reflecties, oxidaties en kleine krassen.
Bron: http://www.snowwhiteandthehuntsman.com/
Pixomondo was verantwoordelijk voor het tot leven wekken van de verbazingwekkende veldslagen op de film tussen het Dark Army en de Knights. 3DS Max, Vray en Thinking Particles gebruiken om het uiterlijk van het Dark Army te bereiken, dat zou versplinteren in zwarte scherven wanneer ze door een ridder worden geraakt. Met Thinking Particles kon het team een volume-onderbrekingssysteem opzetten dat overeenkomt met de beweging van het zwaard, de hoek en snelheid wanneer het op het oppervlak botst. De soldaten zouden gewoon dynamisch breken terwijl de ridder doorgaat met animeren, en met de fragmentatie die door het hele lichaam gaat, op die manier een meer vloeiend effect krijgt, dragen meer dan 130.000 fragmenten bij aan de dynamische simulatie van slechts één scène.
Het team gebruikte Massive samen met handgerichte animatie voor het totale leger bestaande uit meer dan 1500 soldaten, voor de omringende ridders gebruikte het team een script dat willekeurig animatiefragmenten uit een bron van ongeveer 1.000 frames zou selecteren, en zouden ze deze plaatsen in het veld op een willekeurige schaal en rotatie om een uniek effect te krijgen.
Bron: http://www.dexigner.com/news/25213
Rhythm & Hues waren verantwoordelijk voor het creëren van veel wezens en planten voor de film, vooral degene die het bos bevolken, een mystiek hert, een vos, een das, konijnen, egels, vogels, slangen, paddenstoelen, fluorescerende scarabeeën, feeën en anderen, inclusief de filmhandtekeningenreeks van de trol, met behulp van motion capture voor zijn lichaamsbeweging en handanimatie voor zijn gezicht. De rest van zijn lichaam bestaat uit rotsen en wortels zoals spieren en een ruwe huidtextuur.
Op de set filmde de productie met eyeline-palen en luchtkanonnen met waterspetters om de actrice een idee te geven van hoe ze zou moeten reageren. Aan de andere kant creëerde Double Negative de wezens uit het donkere bos, verwrongen bomen en takken, lekkende spieren, een vleermuis wezen en de donkere feeën opgeroepen door de koningin, bestaande uit ongeveer 30.000 obsidiaan-scherven. Met behulp van Houdini en een FX-toolset voor de animatie die de kunstenaars in staat stelde om de beweging te choreograferen en de scherven toe te laten om op bepaalde manieren te bewegen en los te koppelen.
Bron: http://www.snowwhiteandthehuntsman.com/
Deze video laat je de verbluffende VFX-scènes zien, hoe ze deze maken en enkele scènes van compositing.
Een van de meest opvallende aspecten van deze film is dat Peter Jackson besloot de film op te nemen met behulp van het High Frame Rate (HFR) -formaat. HFR-producties van 48 fps registreren en spelen beelden met tweemaal het huidige tempo, dat is 24 fps. De film is gefilmd met 48 Epic Red-camera's met 48 fps in een resolutie van 5K. Om 3D-beelden vast te leggen, huurde het team 3ality in om een rig te bouwen waarbij de ene camera direct fotografeert en de andere camera op een spiegel gericht is, dit was nodig omdat de 3D-camera's op dezelfde afstand tussen je ogen moesten worden gemonteerd, is niet mogelijk gezien de grootte van de Epic Red-camera's. Daarnaast moest het team alles overkrusten omdat Epic Camera's de beelden desatureren.
Bron: http://youtu.be/gHF536TJ0iE
Wanneer Bilbo en de Dwergen het Trollshaw-bos inlopen, komen ze met drie hongerige trollen. Deze scène kwam tot leven door de hand van Weta Digital. Alvorens een opname te starten, visualiseerde het team vooraf het om beats uit te werken en het filmen te helpen. De wezens werden gemodelleerd en gevild met een weefselsysteem dat de simulatie van spieren, vet en huid mogelijk maakte, terwijl de animators de prestaties kregen van de acteurs op bewegingsvasthoudpakken die later opnieuw werden getargeteerd voor de representatie van de vier meter Trolls.
Bij de HFR moesten ze veel meer aandacht besteden aan details zoals lipsynchronisatie en knipperen. Aan de andere kant filmden Martin Freeman en de acteurs van Duarf hun rol op een bos, met behulp van bollen op palen voor ooglijnen van de Trollen, die later digitaal aan de scène werden toegevoegd. Eindelijk combineren de compositors de CG Trolls, de live acteurs, de bos set, digitale vuur, interactieve verlichting onder andere effecten om de volgorde te voltooien.
Bron: http://www.youtube.com/watch?v=kYeQNH6gJhE
Het was een uitdaging voor hem om een iets jongere Gollum uit te voeren, omdat hij praktisch alles moest afleren wat er op LOTR was gebeurd.
In deze film hebben we de kans om Gollum weer tien jaar na Lord of the Rings te zien. Andy Serkis kreeg de kans om zijn rol als gemarteld wezen opnieuw af te spelen. Het was een uitdaging voor hem om een iets jongere Gollum uit te voeren omdat hij praktisch alles moest afleren wat er op LOTR was gebeurd.
Vanwege de HFR en stereo-aard van de film was er veel meer detail nodig, daarom is het personage volledig gerenoveerd met nu ongeveer tien keer meer polygonen en drie keer meer gezichtsvormen dan voorheen. De kunstenaar had de taak om ervoor te zorgen dat de oorspronkelijke aantrekkingskracht en het gevoel van het personage dezelfde was als die we 10 jaar geleden zagen, terwijl ze zijn uiterlijk verbeterden en de manier waarop hij bewoog, ze aandachtig aandacht schonken aan zijn gezichtspoppelbediening na het gezichtsactie coderingssysteem ( FACS). Een belangrijke verschuiving was de mogelijkheid om op locatie te spelen in een bewegingsvasthoudpak, waarin ook een camera voor gezichtsopname was opgenomen.
Bron: http://www.thehobbit.com/#content=gallery
Deze video laat je de verbluffende VFX-scènes zien, hoe ze deze maken en enkele scènes van compositing.
Video-bronnen voor alle video's kunnen hier worden gedownload.