O muzyce elektronicznej słów kilka…

womans worldW ostatniej dekadzie elektroniczne brzmienia odgrywają coraz większą rolę na scenie muzycznej. I mimo że od dwóch lat mamy nieco większą modę na utwory z akustycznymi instrumentami, elektronika ciągle stanowi istotną gałąź przemysłu fonograficznego. W 2012r. na liście End-Year Digital Songs 5 piosenek w Top10 miało elektroniczne brzmienie, nie mówiąc o roku 2010, kiedy w pierwszej dziesiąte moża było odnaleść „Tik-tok” Ke$i, „Bad Romance” Gagi, „California Gurls” Katy Perry czy „Dynamite” Taio Cruza. Wydaje mi się, że warto jest popatrzeć jak taka elektroniczna muzyka powstaje. Poza tym mogę zapewnić, że wszystkie inne piosenki na Billboardzie, nawet te akustyczne, bez komputerów by nie powstały:)

Okazuje się, że cały, wydawać by się mogło złożony, proces produkcji można podzielić na kilka podstawowych etapów. I w tym poście postanowię je krótko(to jest naprawdę krótko!) omówić.

Sound design

To chyba najbardziej ciekawa i „widowiskowa” gałąź muzyki elektronicznej. Na tym etapie kształtuje się brzmienie dźwięków. W świecie cyfrowym odpowiednikami analogowych instrumentów są specjalne programy, zwane wtyczkami VST[1]. To dzięki nim można otrzymać nieskończenie wiele elektronicznych, futurystycznych brzmień. I nie tylko takich. Bardzo popularne są wtyczki, które pełnią funkcje emulatorów instrumentów analogowych – po prostu brzmią jak zwykłe, akustyczne instrumenty! Wbrew pozorom ma to wiele korzyści. Po pierwsze nie ponosząc żadnych kosztów możemy odtworzyć partię dowolnego instrumentu. Po drugie można zagrać każdą melodię, nawet taką, której człowiek fizycznie nie może. No i po trzecie jakość takiego nagrania będzie zawsze idealna, pozbawiona jakichkolwiek szumów i zniekształceń.

Interfejs wtyczki VST - Sylenth1

Interfejs wtyczki VST – Sylenth1

Jak działają takie wtyczki? Przede wszystkim na zasadzie syntezy subtraktywnej. Okazuje się, że całe bogactwo muzyki electro opiera się na 5 podstawowych przebiegach: sinus, prostokątny, trójkątny, piłokształtny i białym szumie. Dzięki odpowiednim modyfikacjom sygnałów(filtry, sterowanie LFO/enveloperami) można otrzymywać zarówno elektroniczny bas jak i dźwięki gitary akustycznej. Warto dodać, że istnieje także druga technika tworzenia sygnałów – synteza addytywna, w której dodaje się wiele(rzędu tysięcy) pojedynczych składowych harmonicznych. Technika trudna w obsłudze i prawie w ogóle nie stosowana.

Cztery podstawowe typy przebiegów sygnaów. Poddane modyfikacjom w syntezie subtraktywnej dają nieskończenie wiele brzmień.

Cztery podstawowe typy przebiegów sygnałów. Poddane modyfikacjom w syntezie subtraktywnej dają nieskończenie wiele brzmień.

Sound editing

Nawet twórcy muzycy elektronicznej czasem muszą wyciągnąć mikrofon i zamiast tworzyć w świecie cyfrowym, po prostu nagrywać. Przykładowo: większość sampli perkusyjnych jest nagrywana, a nie kreowana w sposób komputerowy. Jeszcze lepszym przykładem jest oczywiście wokal. Tego komputery jeszcze emulować nie potrafią(jeszcze…), więc ciągle wokaliści są bardzo „pożądanymi instrumentami”. Niestety – osoba obdarzona nawet najlepszym głosem nie zaśpiewa idealnie. Mimo wszystko będą pojawiały się jakieś nieczystości a w zależności od utworu głos może mieć zbyt duży zakres dynamiki(w jednym miejscu będzie za cicho, w innym za głośno). Poza tym mikrofon, który nie jest idealny, zbiera nie tylko pożądany przez realizatora głos, ale i inne dźwiękowe śmieci, w tym szum. W związku trzeba nad surowym głosem sporo popracować, szczególnie, gdy J.Lo chce nagrać piosenkę 😉

Najstarszą „sztuczką”, stosowaną jeszcze w erze taśm magnetycznych, był crossfading. Wyobraźmy sobie, że mamy dwa nagrania tego samego refrenu. W pierwszym początek brzmi wyśmienicie, ale końcówka już nie. W drugim jest odwrotnie. Crossfading polega na płynnym przejściu między jedną a drugą ścieżką – tutaj tak, aby połączyć dobrze brzmiący początek z pierwszego nagrania, z drugą połową drugiego. Obecnie podstawowym narzędziem w pracy z nagrywanym materiałem są programy typu Melodyne. Pozwalają nie tylko dopasowywać nagranie do tempa(siatki), ale przede wszystkim posiadają moduł auto-tune – to właśnie on pozwala naprawić wszystkie rozminięcia z tonacją. Obecne rozwiązania pozwalają na zmianę wysokości dźwięku nawet o kilka półtonów przy zachowaniu naturalnego brzmienia głosu. Mimo że zdaniem „Timesa” to jeden z najgorszych wynalazków w historii ludzkości, stwarza ogromne możliwości i jest powszechnie stosowany w studiach nagraniowych.

Aranżacja

Ten etap możemy znaleźć zarówno w produkcjach muzyki elektronicznej jak i akustycznej. Co z tego, że mamy setki wtyczek, które dają nieograniczone możliwości? Co z tego, że mamy pięknie nagrany wokal? Temu wszystkiemu trzeba nadać jakąś formę, czyli zaaranżować.

Tak naprawdę praca w tym etapie decyduje czy piosenka będzie dobra czy nie. Tutaj określamy styl, brzmienie czy budowę nowej kompozycji. No i właśnie w tym momencie przydaje się(a właściwie to jest bezwzględnie potrzebna) znajomość teorii muzyki. Te wszystkie informacje o tempie, progresjach akordów czy kształcie melodii tutaj mają praktyczne zastosowanie. Przykładowo: jeśli piosenka ma progresję Em-G-C, to od razu wiemy, że linia basowa musi składać się kolejno z dźwięków E-G-C. A takich zasad i sztuczek jest masa i warto je chociaż trochę poznać.

Cały proces, podobnie jak poprzednie, wykonuje się w specjalnych programach digital audio workstation (DAW), np. Cubase czy FL Studio. Tego typu softy stwarzają ogromne możliwości i pozwalają nie tylko zaprogramować partie MIDI(czyli „wpisanie nutek”), ale także dodać efekty czy automatyzacje(np. automatyczne wyciszanie, narastanie poziomu itd.).

Zrzut z FL Studio - jednego z najpopularniejszych DAW. Jako że jestem bałaganiażem i jest to koncepcyjny projekt, całość normalnie nie wygląda tak chaotycznie...

Zrzut z FL Studio – jednego z najpopularniejszych DAW. Jako że jestem bałaganiażem i jest to koncepcyjny projekt, całość normalnie nie wygląda tak chaotycznie…

Mixing

Powiedzmy, że mamy już zaaranżowaną kompozycję, czyli wiemy jaki co i gdzie ma grać wybrany przez nas instrument. Po przesłuchaniu solo każdej ścieżki wszystko brzmi pięknie i pełnie. Jednak, gdy włączymy wszystko naraz, przeważnie brzmi to… tragicznie. Coś jest za głośne, coś za ciche, jeden instrument nie pasuje do reszty, inny zagłusza kilka pozostałych. Jak to możliwe, skoro oddzielnie wszystko brzmiało idealnie. No właśnie – oddzielnie! Sztuką jest sprawienie, aby wszystko RAZEM brzmiało idealnie. I właśnie na tym etapie się to osiąga. Wymaga to ogromnego doświadczenia i w wielkim skrócie polega na ustalaniu odpowiednich poziomów głośności, wykonywaniu korekcji widma, panoramowaniu(posłuchajcie Waszych ulubionych piosenek – czy wszystkie instrumenty grają „w centrum”, czy może są takie, które są głośniejsze tyko w jednym z kanałów) czy dodawaniu efektów nadających wrażenie przestrzenni. Przy profesjonalnych produkcjach mixing wykonuje inna osoba niż aranż.

Tak wygląda typowy equalizer. Pozwala na wyciszanie i podbijanie wybranych pasm widma akustycznego. Podstawowe narzędzie na etapie miksu.

Tak wygląda typowy equalizer. Pozwala na wyciszanie i podbijanie wybranych pasm widma akustycznego. Podstawowe narzędzie na etapie miksu.

Mastering

Na tym etapie mamy wszystkie tracki połączone w jedną, pełną ścieżkę. Wydawać by się mogło – co można więcej zrobić. Okazuje się, że można i to bardzo dużo. Zadaniem masteringu jest „wyciśnięcie” z piosenki najlepszego, najprzyjemniejszego brzmienia. Osiąga się to przede wszystkim przez kompresję i nadawanie dużej głośności. Nasze ucho łatwo oszukać i wystarczy otworzyć głośniej muzykę, aby brzmiała lepiej. Ma to swoje wady, a prześciganie się realizatorów w głośności nagrań nosi nazwę wojny głośności.

Szczerze mówiąc – nienawidzę tego procesu, pewnie dlatego, że nie umiem go poprawnie wykonywać 😀 Sekretem perfekcyjnych brzmień jest tutaj stosowanie m.in. kompresorów wielopasmowych(mimo że mamy jedną ścieżkę, możemy ją „posiekać” np. na pasmo basowe, środkowe i górne a następnie na każde z nich nałożyć oddzielne efekty), które, niestety, są bardzo drogie. Mastering powinna wykonywać osoba kompletnie niezwiązana z wcześniejszymi etapami produkcji – zapewnia to obiektywizm pracy.

Wadą nadmiernej kompresji(w celu uzyskania nagrania o dużej głośności) jest tzw. śmierć dynamiki. Oznacza to, że nagrania od początku do końca są tak samo głośne i brakuje im kontrastu. Mimo że początkowo brzmią lepiej(ze względu na fizjologię słuchu), sprawiają, że ucho szybko się męczy.  Na poniższej grafice - zrzut z bazy http://www.dr.loudness-war.info. Kolorem czerwonym oznaczono nadmierną kompresję dynamiki.

Wadą nadmiernej kompresji(w celu uzyskania nagrania o dużej głośności) jest tzw. śmierć dynamiki. Oznacza to, że nagrania od początku do końca są tak samo głośne i brakuje im kontrastu. Mimo że początkowo brzmią lepiej(ze względu na fizjologię słuchu), sprawiają, że ucho szybko się męczy.
Na poniższej grafice – zrzut z bazy http://www.dr.loudness-war.info. Kolorem czerwonym oznaczono nadmierną kompresję dynamiki.

Mam nadzieję, że Was nie wystraszyłem. Jak widać nawet taka zwykła „techno-łupanka” nie jest taka prosta w realizacji.

[1] VST to pewien przykład technologii opracowanej przez niemiecką firmę Steinberg Media Technologies. Możliwe są oczywiście inne rozwiązania, jednak ta, ze względu na swoją kompatybilność jest najpopularniejsza.

Reklamy

3 thoughts on “O muzyce elektronicznej słów kilka…

Skomentuj

Wprowadź swoje dane lub kliknij jedną z tych ikon, aby się zalogować:

Logo WordPress.com

Komentujesz korzystając z konta WordPress.com. Wyloguj / Zmień )

Zdjęcie z Twittera

Komentujesz korzystając z konta Twitter. Wyloguj / Zmień )

Facebook photo

Komentujesz korzystając z konta Facebook. Wyloguj / Zmień )

Google+ photo

Komentujesz korzystając z konta Google+. Wyloguj / Zmień )

Connecting to %s