REC

Suggerimenti su riprese video, produzione, editing video e manutenzione delle apparecchiature.

 WTVID >> Italiano video >  >> video >> Musica e audio

Editing del suono e missaggio del suono:qual è la differenza?

L'editing del suono è il veicolo che sposta l'audio di un progetto dalla fase di produzione a quella di post-produzione. La principale differenza tra l'editing del suono e il missaggio del suono è che l'editing si concentra sulla produzione, mentre il missaggio prende il prodotto modificato e lo affina durante la post-produzione.

La maggior parte del montaggio del suono avviene durante la produzione. Questo copre tutte le fasi della produzione, dalle riprese e dalla registrazione sul set agli effetti sonori, foley e ADR. Qualsiasi processo che generi nuovi contenuti audio richiede l'editing prima che sia pronto per l'uso in post-produzione, quindi viene trattato come un editing. Paragonare questo processo alla produzione di cibo rende l'editing del suono la raccolta di un nuovo raccolto audio. Le registrazioni vengono tagliate a misura, pulite e spedite per ulteriori assemblaggi e imballaggi.

Il missaggio del suono prende quegli elementi grezzi e li combina per produrre un mondo coeso e autonomo fatto di dialoghi, passi, effetti e musica. Nell'ambito dell'analogia precedente, questa è quell'arte di cucinare, inscatolare e confezionare.


Modifica audio

A prima vista, l'editing e il missaggio appaiono abbastanza simili perché gli stessi strumenti generali vengono utilizzati per entrambi i processi. Detto questo, producono risultati significativamente diversi. La separazione dei compiti tra editing e missaggio è un po' più sfumata rispetto alle scelte chiare su quando utilizzare Adobe Premiere invece rispetto ad After Effects.

Strumenti – Less is More

È facile percepire la fase di produzione come incentrata sulle riprese, quando in realtà la produzione copre tutta la generazione dei contenuti. Per il reparto sonoro, il montaggio equivale alla registrazione del palcoscenico sonoro, ADR, foley, effetti e musica. Questo contenuto viene modificato e aggiunto al pool di file di progetto.

L'editing del suono utilizza ancora lo stesso set di strumenti tradizionale di un momento in cui il nastro era ancora il mezzo preferito. All'epoca, il montaggio prevedeva il taglio, l'incollaggio e l'unione di riprese e scene. Creare una dissolvenza tra due parti significava tagliare due pezzi di nastro ad angolo e incollarli insieme. Questa è l'origine degli strumenti di taglio, colla e dissolvenza a forma di rasoio visti nelle odierne workstation audio digitali (DAW).

Lo scopo amministrativo dell'editing oggi è assemblare tutti i Take approvati in un nuovo progetto e allinearli al file proxy video. Le prime fasi dell'editing del suono comportano molti tagli ed eliminazioni per ripulire il progetto.

La digitalizzazione ha reso l'editing un processo più visivo, principalmente introducendo forme d'onda. Non c'è assolutamente nulla di sbagliato nell'usare segnali visivi. Tuttavia, l'eccessivo affidamento alle forme d'onda e la mancanza di ascolto si tradurranno in tagli bruschi, misurazione scomoda e respiri interrotti tra le parole. Ad esempio, non fare affidamento solo sull'utilizzo della funzionalità di silenziosità delle strisce di Pro Tools su un'impostazione aggressiva. Fortunatamente, la maggior parte della modifica del software non è distruttiva e le aree di taglio possono essere estese.

Tempo

La modifica è più della rimozione del rumore di fondo. Un buon senso del ritmo, del tempismo e dell'estetica giocano un ruolo importante nella creazione di tagli, dissolvenze e modifiche avvincenti. Con l'editing su nastro, la meccanica fisica del processo significa che non c'è molto spazio per rinviare una dissolvenza per un secondo momento. L'unione di due lunghezze di nastro lascia solo due opzioni:taglia e sbiadisci. L'angolo e la direzione della dissolvenza possono essere modificati per farla sfumare in entrata o in uscita a velocità diverse, ma alla fine queste sono tutte dissolvenze.

Ciò che è cambiato è che il lavoro di editing non ha più bisogno di essere caricato in anticipo all'inizio. Questa progressione del flusso di lavoro consente all'ingegnere di prendere alcune decisioni di editing e mixaggio su tutta la linea.

Sporcarsi le mani

Il mondo dell'editing è un sandbox e dovrebbe essere trattato come tale. Quando si presenta l'opportunità di provare qualcosa di nuovo, è incoraggiato a fare lo sforzo di provarlo. John Roesch, un artista foley professionista che ha lavorato a "Indiana Jones and the Raiders of the Lost Ark" ha affermato che non si può distinguere il buon foley da quello reale. Quasi tutti gli effetti audio in "Raiders" erano folli, con gran parte del suono registrato sul set pieno di rumore di macchine per effetti e sequenze.

Vale assolutamente la pena essere coinvolti con Foley e creare una raccolta di oggetti di scena aiuta solo a migliorare le tue abilità di foley. Lo stesso vale per il suono trovato e per l'acquisizione di nuovi suoni man mano che vengono; avere un registratore portatile a portata di mano non fa mai male.

Missaggio del suono

Il missaggio del suono si concentra sul perfezionamento di quelle tracce appena montate e sul lavoro verso un punto finale. La direzione può venire da te o da altri se lavori con una squadra. Questa fase beneficia notevolmente di un piano di produzione e di una destinazione. Il missaggio del suono ai fini di questo articolo consolida il lavoro del sound designer e dell'ingegnere del missaggio, precedentemente noto come "sound men".

Strumenti del mestiere

La fase di montaggio utilizza un insieme di strumenti più modesto rispetto all'approccio notevolmente più sontuoso offerto dal missaggio del suono. La digitalizzazione degli strumenti non si ferma alla fase di editing. Tutti i fuoribordo utilizzati nella produzione audio oggigiorno hanno equivalenti digitali. Lo stesso si può dire per gli strumenti campionati. Ci sono così tanti casi oggi in cui le persone non battono ciglio all'ascolto di una sezione di corde in una scatola, molto probabilmente perché il divario è diventato abbastanza stretto.

Gli strumenti comuni nella catena di elaborazione del segnale sono:EQ, compressori, limiter, noise gate, riverbero, delay, chorus, flanger e phaser. L'automazione è l'ultimo tassello che lega tutto insieme e fissa tutti i cambiamenti nella pietra.

In pratica

Il missaggio è più di un esercizio di bilanciamento dei livelli, regolazione degli equalizzatori e aggiunta di effetti. Richiede immaginazione, intento, pazienza e un buon orecchio. Le decisioni hanno uno scopo e, se strizzi gli occhi abbastanza, usa una buona teoria.

Gli equalizzatori vengono utilizzati per scolpire i suoni e far risaltare la chiarezza. Questo è il motivo per cui riduciamo la risonanza all'estremità inferiore delle esibizioni vocali e diamo un urto alla gamma media. Delay e riverberi sono ugualmente in grado di creare ambientazioni, atmosfere o sequenze ipnotiche. I compressori possono dare una spinta sonora o dare consistenza al dialogo.

Il lavoro viene completato in blocchi e sezioni, anche quando si lavora da soli. Non cercare di sollevare tutto in una volta. Le sezioni complete sono molto più facili da gestire come stem o gruppi esportati, ne parleremo più avanti. Premesso che i limiti delle tracce oggi sono aumentati, Pro Tools supporta un massimo di 768 tracce con Logic Pro che offre oltre 1.000. I gruppi semplificano la vita e mantengono in ordine il tuo progetto, il che rende l'automazione molto più semplice. L'automazione è simile allo scripting, nel senso che è tipico automatizzare qualsiasi attività manuale eseguita più di una manciata di volte.

Momenti dalla storia

Arriva un momento in cui ti rendi conto che alcuni sound designer e montatori hanno avuto un ruolo molto speciale in alcuni dei tuoi programmi e film preferiti. Le loro produzioni hanno alzato l'asticella a nuovi livelli e hanno regalato nuovi ricordi a un pubblico infinito.

Questi film hanno ormai decenni e condividono ancora un filo comune con le produzioni di successo di oggi. È come tornare indietro nel tempo e vedere i primi utilizzi di strumenti e metodi considerati oggi prassi standard. Sì, i film di oggi sono più rumorosi e audaci, ma le radici rimangono le stesse.

I San Francisco Boys

Ben Burtt e Richard L. Anderson si sono diplomati alla scuola di cinema della USC nel 1975 e hanno lavorato insieme ai primi film di “Star Wars” e Indiana Jones. Entrambi hanno una carriera di incredibile successo nel settore e hanno condiviso un Oscar per il loro lavoro in "I predatori dell'arca perduta".

I due facevano parte di un gruppo di due dozzine di giovani montatori del suono, doppiati da Frank Warner, conosciuti come i San Francisco Boys. La combinazione di talento fresco e registi visionari come Francis Ford Coppola e George Lucas ha contribuito a portare il mezzo a nuove vette. È stata l'attenzione dei registi al suono che ha consentito e guidato questa nuova generazione di sound designer e montatori.

Il sound design di "Apocalypse Now" è opera del sound designer Walter Murch, un altro ex studente della USC che ha studiato con George Lucas. Gli effetti includevano registrazioni di pistole che sparavano proiettili veri, elicotteri ed esplosioni.

"I predatori dell'arca perduta" sembra ancora più moderno della sua età e non è solo. Gli anni che circondano il 1981 hanno visto una serie di film spingere i confini del suono e del video. "Star Wars", "Apocalypse Now" e "I predatori dell'arca perduta" sono apparsi nell'arco di quattro anni. Hanno sfidato il pretesto di ciò che era possibile e hanno continuato a ispirare generazioni di registi e montatori allo stesso modo.

Imparare dai migliori

L'uso della registrazione multitraccia sulla melodia di 24 o più tracce, a volte asservendo insieme più registratori, è diventato una necessità. Le prime fasi utilizzano un numero di tracce più elevato, sebbene questi numeri diminuiscano man mano che più sezioni vengono mescolate e divise in gruppi. Burtt ha discusso della necessità di controllare i livelli degli ottoni e dei legni separatamente, facendolo con i gruppi di tracce, per non perdere gli elementi musicali all'interno degli effetti sonori. Oggi questo è sia normale che necessario, poiché le tracce devono essere mixate e rimbalzate sul posto come steli. Le tracce possono essere inviate agli autobus e gestite anche in questo modo.

La passione e l'attenzione che questo ha portato sono state incredibilmente positive. L'audio di grande impatto che si trova in quei film è stato reso possibile dal mestiere che persone come Burtt hanno contribuito a realizzare, uno che è ancora vivo e vegeto oggi.

Riferimenti

  • Le orecchie d'oro dei film
    • https://www.washingtonpost.com/archive/lifestyle/1984/07/03/the-movies-golden-ears/fd0a2636-86e6-498c-810b-52e3657c92d9/
  • Interviste sonore di I predatori dell'arca perduta con Ben Burtt e Joe Roesch
    • https://youtu.be/WYuxYkL_AHM
  • Indiana Jones Sound Design Featurette parte 1
    • https://www.youtube.com/watch?v=YWDSFihqyH8


  1. Wistia vs YouTube:qual è la differenza?

  2. Qual è la differenza tra il video marketing B2B e B2C?

  3. Montaggio sul set

  4. Effetti sonori in tempo reale:The Foley Way

  5. Edit Suite:modifica dell'immagine in suono

  6. Consiglio audio:modifica dell'audio per il video

  7. Consiglio sonoro:modifica della narrazione

  8. Circondati a buon mercato – Parte 1

  9. L'approccio naturale

  1. Editing del suono e missaggio del suono:la battaglia in corso

  2. Editing in futuro?

  3. La storia dei microfoni

  4. Il microfono preferito

  5. La guida del regista indipendente a Foley e al missaggio audio

  6. Editing del suono e missaggio del suono:qual è la differenza?

  7. Uno sguardo al masterclass di montaggio sonoro di "A Quiet Place"

  8. Luce dura vs luce soffusa:qual è la differenza?

  9. Qual è la differenza tra Spektrum DX6 e DX6e?

Musica e audio