뮤직 시퀜서(Music sequencer: [역주] 음악의 녹음, 편집, 플레이가 모두 가능한 장비나 소프트웨어)는 20세기 중반 무렵부터 사용되기 시작했고, 토미타 이사오(Isao Tomita, 冨田 勲: 1932~ )가 1970년대 중반에 발표한 앨범들은 그 모범적인 사례에 속했다.(주91) '옐로 매직 오케스트라'(Yellow Magic Orchestra: YMO)는 대중음악을 작곡하는 데 신디사이저(synthesiser)와 결합시킨 컴퓨터를 기반으로 한 기술을 사용했다.(주99) 그들은 초창기에 마이크로 프로세서(microprocessor)에 기반을 둔 '롤랜드 MC-8 마이크로 콤포저'(Roland MC-8 Microcomposer) 시퀀서를 사용했다.(주100)(주101)
'리듬 머신'(rhythm machine)이라 불리기도 하는 '드럼 머신'(Drum machines)도 1950년대 말부터는 사용됐고, 키타지마 오사무(Osamu Kitajima, 喜多嶋修)는 나중에 '프로그레시브 락'(progressive rock) 앨범인 <벤자이텐>(Benzaiten: 弁才天)에서 모범적 사례를 보여줬다. <벤자이텐> 앨범은 전자 드럼(electronic drums) 및 신디사이저와 더불어 드럼 머신을 사용했다.(주92)
영국의 뉴웨이브 밴드 '울트라 폭스'(Ultravox)가 1977년에 발표한 싱글 <히로시마 몬 아모르>(Hiroshima Mon Amour: 히로시마 내 사랑)는 '롤랜드 TR-77'(Roland TR-77) 드럼 머신을 사용하여 마치 메트로놈(metronome) 소리 같은 타악기 파트를 구성한 최초의 음악들 중 하나였다.(주94)
1980년, '롤랜드' 사는 'TR-808'을 출시했다. 이 장비는 사용자가 직접 프로그램이 가능한 드럼 머신 가운데 가장 인기있는 제품이었다. '옐로 매직 오케스트라'는 1980년에 TR-808을 최초로 사용한 밴드가 되었고, 1982년에 마빈 게이(Marvin Gaye: 1939~1984)의 <섹슈얼 힐링>(Sexual Healing) 및 DJ '아프리카 밤바타'(Afrika Bambaataa: 1957~ )의 <플래닛 락>(Planet Rock)이 발매되자 TR-808은 광범위한 인기를 얻었다.(주102) TR-808은 1980년대 말의 '디트로이트 테크노'(Detroit techno) 장르에서 매우 근본적인 도구가 되었고, 데릭 매이(Derrick May: 1963~ )나 후안 앳킨스(Juan Atkins: 1962~ ) 같은 뮤지션들에게는 드럼 머신으로 채택되었다.(주103)
1980년, 새로 탄생한 악기들이 '[음악적] 관제 지시'(control instructions: 통제명령)를 여타 악기들 및 컴퓨터들과 소통할 수 있도록 해줄 인터페이스(interface: 접속장치)의 표준화시키기 위해, 일군의 뮤지션들과 음악 관련 기업들이 모여서 회의를 가졌다. 여기서 논의된 표준화 방식은 '음악 장비의 디지털 인터페이스'(Musical Instrument Digital Interface: MIDI, 미디)라고 명명됐고, 처음에는 '시퀜셜 서킷츠'(Sequential Circuits), '오버하임'(Oberheim), '롤랜드' 같은 선도적인 악기 제조사들 사이의 공조를 통해 탄생했다. 이후 '야마하'(Yamaha, ヤマハ株式会社), '코르그'(Korg, 株式会社コルグ), '카와이'(Kawai, 株式会社河合楽器製作所) 같은 기업들도 나중에 참여했다.(주103)
['미디의 아버지'로 불리는] '시퀜셜 서킷츠'의 데이브 스미스(Dave Smith)는 논문 한편을 작성하여, 1981년 미국 '음향공학회'(Audio Engineering Society: AES)에 제출했다. 그리고 1983년 8월에는 '미디 스페시피케이션 1.0'(MIDI Specification 1.0) 버전이 완성됐다.
(사진) '미디'는 다양한 장비들을 단일한 통제자를 통해 연주할 수 있도록 해주었다. 이 사진은 공연 무대용 미디 세팅으로서, 보다 단촐한 구성으로 세팅한 것이다. 사진 속의 장비들은 모두 하나의 랙 케이스 안에 장착되어 있다. 하지만 '미디'가 출현하기 전에는, 이 정도 세팅을 하려고 하면 각기 다른 4대의 키보드와 믹싱 장비, 그리고 이펙터 장비들을 별도로 쌓아두고 연주해야만 했다.
미디 기술은 스튜디오 내의 모든 장치들이 비록 떨어져 있더라도 작곡가가 미리 설정한 조건들에 따라 반응하며 동시에 작동될 수 있도록 해주었고, 그 명령 방식 역시 '단일 키스트로크'(single keystroke: 한개의 키를 한번만 누르는 일), [굴림형인] 콘트롤 휠 작동(control wheel motion), [발 아래쪽] 페달의 작동, 혹은 컴퓨터 자체의 명령을 모두 사용할 수 있도록 해주었다.
미디 장비들과 운용 소프트웨어가 나오면서, 많은 스튜디오나 개인들이 복잡한 장비들을 강력하게 통제하는 일을 용이하게 만들어주었다. 어쿠스틱 음향들은 '샘플링 작업'(sampling) 및 샘플링된 음향을 롬(ROM) 방식으로 저장하는 장비들을 통해 스튜디오 내에서 다시금 통합될 수 있었다.
밀러 푸켓(Miller Puckette)는 '소지텍 포 엑스'(Sogitec 4X) 컴퓨터 시스템을 위한 '그래픽 신호처리 소프트웨어'(graphic signal-processing software)를 개발했다. 이 소프트웨어는 '맥스'(Max)라고 명명됐는데, 이 명칭은 컴퓨터 음악의 선구자였던 '벨 연구소'(Bell Labs)의 맥스 매튜스(Max Mathews: 1926~2011)의 이름에서 따온 것이다. 푸켓은 나중에 이 프로그램을 '애플'(Apple Inc.) 사의 '매킨토시'(Macintosh) 컴퓨터에 적용될 수 있도록 했는데, '매킨토시'에는 데이브 지카렐리(Dave Zicarelli)가 '옵코드 시스템'(Opcode Systems)에 확장시켰던 요소도 함께 적용되었다.(주104) 이는 실시간 미디 콘트롤을 위한 것으로서, 대부분의 작곡가들이 컴퓨터 프로그래밍에 관한 가벼운 지식만 갖고도 알고리즘에 기반한 작곡 능력을 발휘할 수 있도록 만들어주었다.
(주104) Holmes, Thom (2008), Electronic and Experimental Music: Technology, Music, and Culture (3rd ed.), London and New York: Routledge, p.227.
존 차우닝(John Chowning: 1934~ )은 1971년부터 '스탠포드 대학'(Stanford University)에서 '[기초] 주파수 변조 합성'(周波數變調合成, frequency modulation synthesis: 약칭-FM synthesis)을 실험하고 있었다. 1975년, 일본 기업 '야마하'는 존 차우닝으로부터 '주파수 변조 합성'의 알고리즘에 대한 라이센스를 획득했다.(주106)(주107) '야마하' 소속 엔지니어들은 차우닝의 알고리즘을 디지털 신디사이저(digital synthesizer)에 적용시키기 시작했다. 하지만 아날로그 시스템 상에서 주파수 변조 과정에 일반적으로 나타나는 디스토션(=음의 왜곡 현상)을 피하기 위해, '키 스케일링'(key scaling: 일반 피아노와 같은 터치감) 방법과 같은 개선된 기술들도 추가로 적용했다.(주108)
하지만 최초로 상용화된 디지털 신디사이저는 호주의 '페어라이트'(Fairlight) 사가 1979년에 출시한 '페어라이트 CMI'(Computer Musical Instrument)로서, 이 장비는 최초의 실용적인 '폴리포닉(동시에 여러 소리를 내는) 디지털 신디사이저 겸 샘플러 시스템'(polyphonic digital synthesizer/sampler system)이었다.
1980년, '야마하'는 마침내 첫번째 '주파수 변조 디지털 신디사이저'(FM digital synthesizer)인 '야마하 지에스 원'(Yamaha GS-1)을 출시했지만, 가격이 너무 비쌌다.(주109) 1983년, '야마하'는 최초의 '독립형 디지털 신디사이저'(stand-alone digital synthesizer)인 '디엑스 세븐'(DX-7)을 내놓았다. 이 악기 역시 '주파수 변조 합성' 방식을 사용했는데, DX-7은 이후 모든 시기에 있어서 베스트 셀러 신디사이저 중 하나가 되었다.(주106)DX-7은 특히 밝고 투명한 음색(톤, tone) 때문에 유명했는데, 부분적으로 그것은 57 kHz 주파수 대역에서의 '샘플링 비율 강화'(overachieving sampling rate)를 통해 얻어지는 것이었다.(주110)
배리 버코(Barry Vercoe)는 자신이 경험했던 초창기 컴퓨터 음향에 관해 다음과 같이 말했다.
"1982년 파리에 위치한 '이르캄'(IRCAM: 음악·음향 연구센터)에서 플루티스트인 래리 뷰레갓(Larry Beauregard: 1956~1985)이 자신의 플륫을 4X 사운드 프로세서애 연결하자, 실시간 피치 팔로잉(pitch-following: 일종의 에코)이 가능했다. 당시 나는 '구겐하임 재단 선정 연구자'(Guggenheim Fellowships) 수상자였기 때문에, [그 연구 주제로서] 이 개념을 더욱 확장시켜 '자동 동조 반주'(automatic synchronized accompaniment)를 하는 실시간 악보 연주 개념으로 만들어보았다. 이후 2년 동안 래리와 나는 컴퓨터를 실내악 연주자로 삼는 수많은 실험들을 하면서, 헨델(Handel)의 <플륫 소나타>, 피에르 불레즈(Pierre Boulez: 1925~ )의 <플륫과 피아노를 위한 소나티네>, 그리고 1984년에는 플륫과 컴퓨터를 위한 나의 자작곡인 <시냅스 투>(Synapse II)를 연주했다. <시냅스 투>는 그러한 악기 구성을 적용해서 만든 최초의 곡이다. 그러한 일을 하는데 있어서 주요한 장애물은 극도로 민감하고 감수성이 있는 반주를 지원하기 위한 적절한 소프트웨어를 찾아내는 일이었다. 그 모든 작업들은 '미디'가 출현하기 이전의 일이다. 비록 '템포 루바토'(tempo rubato: [역주] 연주자가 박자를 당기거나 늦추는 등의 기교)의 과도한 사용 때문에 나의 "합성 연주자"(Synthetic Performer: 즉, 컴퓨터)가 끊임없이 놀라곤 했지만, 그 실험 결과들은 인상적인 것이었다. 1985년, 우리는 템포 루바토 문제를 해결했다. 그것은 리허설을 통해 합동으로 학습하는 방식으로서, 매번 이런 방식으로 하면 컴퓨터도 나아질거야 하는 방식이었다. 우리는 이제 바이얼린 주자도 찾고 있었다. 왜냐하면 우리의 그 뛰어난 플륫 주자(=래리 뷰레갓)이 불치의 암에 걸렸기 때문이었다. 게다가, 이 새로운 악기 편성은 '미디'라고 불리는 새로운 표준에 맞춰서 작업해야만 하는 것이었다. 이 시점에서 나는 과거 학생이었던 밀러 푸켓의 도움을 받았다. 푸켓은 이 작업에서 맨 처음에 가졌던 개념들을 확장시켜, 나중에 '맥스' 프로그램으로 발전시킬 수 있었다."(주111)
(주106) Holmes, Thom (2008), 앞의 책, p.257.
(주107) Chowning, John (1973), "The Synthesis of Complex Audio Spectra by Means of Frequency Modulation", Journal of the Audio Engineering Society21 (7): pp.526~534.
(주108) Holmes, Thom (2008), 앞의 책, pp.257~258.
(주109) Roads, Curtis (1996), The Computer Music Tutorial, Cambridge, MA: MIT Press, p.226.
(주110) Holmes, Thom (2008), 앞의 책, pp.258~259.
(주111) Vercoe, Barry (2000), "Forward", The Csound Book: Perspectives in Software Synthesis, Sound Design, Signal Processing, and Programming, edited by Richard Boulanger, Cambridge, Mass.: MIT Press,pp.xxviii~xxix.
1980년대와 1990년대에 저가의 새로운 컴퓨터들을 이용할 수 있게 되면서, '칩튠즈'(chiptunes) 음악들이 흥기했다. '칩 뮤직'(chipmusic 혹은 chip music)이나 '8비트 뮤직'(8-bit music)이라고도 불린 '칩튠즈'는 컴퓨터나 비디오 게임기(video game console), 혹은 사운드 칩(sound chip, 사운드 카드)에 의해 실시간으로 합성하거나 배열한 소리들을 이용할 수 있도록 작곡된 음악이다. 이 음악은 때때로 샘플링에 기반한 합성(synthesis) 음향이나 간단한 비트의 샘플 음향을 재생할 수 있도록 되어 있었다.
많은 수의 '칩튠즈' 음악용 장치들은 저 비율의 샘플 재생장치와 직렬로 연결된 가운데 신디사이저들에 장착되기도 했다. 원래 칩튠즈 음악의 '로 파이'(lo-fi, 하이파이가 아닌, 저충실도의) 사운드가 가진 음향적 특징은 초창기 사운드 카드들이 지닌 기술적 제약 때문이었다. 하지만 나중에는 그런 소리 자체가 하나의 장르적 독자성을 지니게 되었다.
(동영상) 초창기의 전자오락기나 닌텐도 게임기 등에 사용되면 간단한 패턴의 음악적 사운드는 이후 '칩튠즈'라는 장르로 발전했다. 칩튠즈는 형식적으로 더욱 복잡한 형태로 변할지라도, 사운드 자체에는 초창기의 게임기들에서 느낄 수 있던 특성들을 그대로 유지하고 있다.
첫댓글 쉽게 접근하기 힘든 분야라 읽기도 버거워
건너 뛰고 흔적만 남기고 갑니다. ㅠㅠ
** ^ ^ **
저도 하나도 모르겠네요 ㅠㅠ
ㅎㅎㅎ
음악을 이해하는데,
지식이 뭔 소용이 있겠습니까???
잘 이해들이 안 되시면...
제1편부터 찬찬히 복습을 하시던가...
아니면 최고로 좋은 방법은
내용 무시하고
그냥 게시물 속의 삽입해놓은 동영상들을 틀어놓고 들으세요~~
음악을 이해하는 데는 그거 이상 없어요 ^ ^
하하하 딩동댕입니다 ,, 음악은 느끼면 되죠 ~ ㅎㅎ 요즘 회사 복잡한 일도 많은데 ,,, 인간 만사 울 노님처럼 명확하게 해석이 가능하면 너무 좋겠습니다 ~