Je hebt er wel eens van gehoord, bijna elke DAW op de markt lijkt het te hebben, maar je hebt het nog niet echt geprobeerd. Ik heb het natuurlijk over Object Oriented Editing, het audio-ingenieurs geschenk van de goden! Het is objectgeoriënteerde bewerking die ons de mogelijkheid biedt om takes te bewerken, het volume van een bepaalde woorden aan te passen en EQ of compressie allemaal dynamisch aan te passen zonder de automatisering aan te raken. En als klap op de vuurpijl? Het is een niet-destructief en niet-lineair proces om op te starten!
Dus als je nog nooit een objectgeoriënteerde bewerking hebt geprobeerd, waarom heb je het dan nog niet geprobeerd? Deze tutorial zal u en uw workflow in deze moderne mindset brengen en u helpen om dynamische muzikale mixen gemakkelijker en efficiënter te maken. Dus als je er klaar voor bent om je audio engineering-leven een beetje makkelijker te maken, spring dan in!
Voordat we daadwerkelijk praktisch gebruik van objectgeoriënteerde bewerking kunnen toepassen, moeten we eerst begrijpen hoe het werkt. En voordat we dat doen, moeten we begrijpen dat verschillende DAW's verschillende niveaus van complexiteit en mogelijkheden hebben als het gaat om objectgeoriënteerde bewerking. Dus voordat we verder gaan, laten we eerst kijken hoe objectgeoriënteerd bewerken de audioketen beïnvloedt.
De kracht achter objectgeoriënteerd bewerken is dat we een audiobestand kunnen nemen en slechts een klein gedeelte van dat ene audiobestand kunnen verwerken op dezelfde manier waarop we normaal een hele track verwerken. Dit creëert effectief twee verschillende niveaus van audiobewerking in onze DAW, de normale bewerking van het trackniveau en het bewerken van het objectniveau.
Er moet ook worden opgemerkt dat niet alle DAW's deze kleine brokken audio-objecten noemen. Je zult ze meestal ook zien als clips, regio's, items, etc. maar de functie blijft hetzelfde.
Na deze twee lagere niveaus gaan we duidelijk van bewerkingen op trackniveau naar sub-mixen en uiteindelijk naar master-trackverwerking, maar dit is het laagste niveau van bewerken en mixen waarmee we een mix sneller en efficiënter kunnen besturen.
Voor degenen onder u die meer visuele leerders zijn, is hier een eenvoudige visualisatie om de hiërarchie van bewerken in een objectgeoriënteerde audioketen te tonen ...
Best simpel, toch? De truc met objectgeoriënteerd bewerken wordt dan: wat kan mijn DAW in deze keten doen? Idealiter zou alles het antwoord zijn, maar helaas kunnen we niet alles hebben.
Hier volgt een kort overzicht van enkele populaire DAW's en hun niveau van objectgerichte integratie ...
Dus de vraag is nu: moet je blijven lezen als je geen DAW hebt die in staat of volledig in staat is om objectgeoriënteerd te bewerken? Ja!
De reden waarom? Omdat u de mogelijkheden en workflow van objectgeoriënteerde bewerking kunt zien en kunt zien of het u aanspreekt.
Als dat zo is, en ik denk van wel, kun je naar andere DAW's kijken als je dat wilt. De meeste van de DAW's die op de minimale lijst staan hebben versterkingsregeling op het objectniveau, wat op zichzelf een enorme efficiëntieboost is.
Voor de rest van de tutorial zal ik Samplitude gebruiken omdat het over de meeste opties beschikt, maar ik zal in conceptuele termen spreken, zodat die ideeën de DAW's hierboven in een of andere vorm kunnen worden toegepast.
Omdat we een ander systeem zijn dan de meeste ingenieurs gewend zijn (vooral in de VS), moeten we aanpassen hoe we denken en het bewerken en mixen benaderen met objectgeoriënteerde bewerking. Houd altijd rekening met de audiostroom van het vorige visuele scherm terwijl u begint met het aanpassen aan een objectgeoriënteerde workflow. Met dat in gedachten, laten we eerst eens kijken naar basisversterking en panning.
Als het gaat om winst, passen we traditioneel het algehele niveau aan met de tracks, passen we onze niveaus fijner aan met automatisering en sturen we die tracks naar een sub-mix om onze automatisering te compenseren, omdat de automatisering waarschijnlijk onze eerste nivellering heeft vernietigd en ze vervolgens naar een andere sub-mix of naar de master.
Wat er mis is met deze foto is dat onze automatisering wordt gebruikt om problemen met de opname te corrigeren, niet om onze mix te verbeteren. Hoe vaak heb je gevreesd om automatisering te gebruiken, want als je het eenmaal gebruikt, is het een koninklijke pijn om te veranderen? Met objectgeoriënteerde bewerking kunnen we dit proces eenvoudig stroomlijnen.
Dit laat nu je faderautomatisering open voor meer muzikale toepassingen, zoals het langzaam aanpassen van een snares-volume in en uit het refrein, of misschien hetzelfde met back-upvocalen. Je kunt dan je sub-mix gebruiken als een algemene leveler voor de hele groep van vocalen, drums, enz., Wat is bedoeld om te doen!
Het hele trucje en punt hiervan is om onze winstcorrectie op objectniveau uit te voeren, zodat we nodeloze automatisering kunnen vermijden die geen enkele muzikale functie vervult. Dit is ook handig als je slechts een klein gedeelte van een nummer wilt repareren en het automatiseren van de fader voor dat ene kleine gedeelte zou overkill zijn.
Een ander idee met de voordelen om in gedachten te houden is het gebruik van het automatiseren van de winst van het object en niet van de faders. Als je track veel muzikale automatisering vereist, automatiseer dan in ieder geval de fader zelf, maar als je een simpele volumeverandering een of twee keer wilt automatiseren, waarom zou je dan omgaan met het automatiseren van de fader wanneer je eenvoudig de winst op het object kunt automatiseren voor dat specifieke gedeelte.
Net als met de winst kunnen we een vergelijkbare benadering van de panning gebruiken. Waarom de pannen automatiseren voor een klein gedeelte en te maken krijgen met het corrigeren van de automatisering voor de rest van het nummer, wanneer we de pan gewoon op het object kunnen aanpassen voorafgaand aan het nummer?
Een veelgebruikt gebruik van deze techniek zou zijn wanneer een zanger zelf een vertragingslijn zingt zonder een vertragingsplug-in omdat ze wilden dat de buiging met elke herhaling zou veranderen. Bovendien wilde je de gezongen vertragingen in de buurt verdelen om meer beweging te krijgen.
Je zou natuurlijk de pannen voor die ene sectie kunnen automatiseren of je zou de gezongen vertragingen gewoon kunnen versnipperen en allemaal anders kunnen pannen; eenvoudig ping pong-effect.
Naast elementaire gain- en panning-eigenschappen kunnen we objectgeoriënteerde editing gebruiken om onze tracks op te ruimen vanuit een EQ-standpunt.
Traditioneel, als een zanger te dicht bij een microfoon kwam en een proximity boost creëerde, of als een gitarist per ongeluk een extra snaar op een akkoord raakte, bleven we achter met een dilemma. Herhaal de uitvoering opnieuw en probeer de fout te vermijden of probeer de fout in de opname pijnlijk te herstellen. En als de uitvoering perfect was naast die kleine ongelukken, dan kunnen we het probleem oplossen, wat er ook gebeurt.
De gebruikelijke manier om dit soort problemen op te lossen, is om de track mogelijk te dupliceren en die ene probleemspot in de nieuwe track op te lossen en deze te combineren met de oude track. Of misschien een EQ-plug-in automatiseren, zodat deze alleen de track op dat ene kleine exemplaar heeft geëffectueerd.
Hoe dan ook, deze benaderingen zijn uiteindelijk langdurige pijnstillende processen die helemaal niet leuk zijn. In plaats daarvan kunnen we met objectgeoriënteerde bewerking het probleem in dezelfde track repareren zonder automatisering.
Zoals u kunt zien is dit een veel eenvoudiger en gemakkelijker te gebruiken proces voor veel voorkomende problemen.
Een andere manier waarop de objectgeoriënteerde bewerking ons kan helpen, is door het gebruik van aux sends. Zoals je weet worden aux-tracks vaak gebruikt voor vertragingen, reverbs, enz. En moeten ze een bepaald deel van onze track naar deze aux-track sturen. Doorgaans ziet u bepaalde woorden of bepaalde drumhits enz. Naar deze aux-tracks sturen via automatisering, omdat we alleen willen dat die hits of woorden de extra effecten hebben.
En net als bij elke andere vorm van automatisering, moeten we de automatisering over het hele nummer aanpassen, zodat we niet per ongeluk vertragingen en reverbs krijgen als we ze niet willen. In plaats daarvan zouden we objectniveau aux sends kunnen gebruiken in plaats van de automatisering.
Zien hoe veel sneller en gemakkelijker dat is? We hebben elke automatisering volledig vermeden en konden in plaats daarvan meer tijd besteden aan het perfect aanpassen van het effect.
Is hier een nadeel aan? Zoals met alles wat ja is er. Eerder hadden we onze objecten correct gecorrigeerd met EQ, gain, enz. En waren we meer gefocust op pre-mixing editing. Hier echter, met muzikale mixeffecten zoals vertragingen en reverbs, moeten dingen mogelijk later veranderen als de mix zich ontwikkelt.
Wat gebeurt er als we vergeten dat we een object aux send hebben gebruikt en geen reguliere track aux send? We zullen gek worden in een poging uit te vissen waarom we steeds een vertraging of galm horen als we denken dat er geen zou moeten zijn! De moraal van het verhaal hier is om in gedachten te houden waar je je effecten plaatst en naar objecten stuurt, anders word je later misschien gek!
Tot dusver hebben we geanalyseerd wat precies objectgeoriënteerd bewerken is en hoe het onze basisbewerking en mixen sneller en met minder gedoe kan laten verlopen. Onthoud echter waar je effecten en dergelijke begint te plaatsen op objecten, omdat ze niet altijd gemakkelijk te vinden zijn als je het vergeet.
Met dit alles bedekt, kunnen we de volgende keer dat we meer creatieve toepassingen van objectgeoriënteerde bewerking gebruiken en creatieve beslissingen kunnen nemen, veel sneller vertrekken en meer muzikale vrijheid creëren.
Tot de volgende keer!