본 논문은 2023년 1월에 Google이 발표한 MusicLM(Music Language Model)을 구현하고 이를 어떻게 활용하는 것이 음악가의 작품 활동에 도움이 될지를 고찰한 연구이다. chatGPT의 생산성에 전 세계인이 매료된 것처럼 음악가뿐만 아니라 음악을 하고 싶어 하는 대중을 위한 도구가 지속적으로 제작되고 배포된다는 점은 경제적, 문화적, 사회적으로 의미하는 바가 크며 이를 연구하는 것은 음악가로서 또한 연구자로서도 기쁨이라 하겠다.
음악 산업의 성장률에 대한 기대치가 각국마다 높은 것을 보더라도 Google이 이에 관심을 갖고 관련 기술을 개발하는 것은 자연스러운 수순으로 여겨진다. 더욱이 Kontakt이나 Splice 등의 Sample 기반의 음악 제작도구가 한창 큰 인기를 끌었던 것을 감안 한다면 이를 확장할 수 있는 가능성을 지닌 MusicLM의 활용방법이나 응용방법에 대해 알아두는 것은 여러 측면에서 유용하리라 생각한다. 또한 MusicLM이 AI(Artificial Intelligence)의 하위 분야인 머신러닝(Machine Learning)의 연구결과물이라는 점에서 다양한 분야와의 접목이 이루어질 수 있다는 것 역시 큰 장점이라 할 수 있다.
MusicLM의 가장 큰 특징은 텍스트를 입력하여 음악을 생성한다는 점이다. 이는 텍스트를 다루는 자연어 처리의 발전과 음악을 생성하고 편집하는 Music Generative 기술 간의 융합(Convergence)의 결과물이라 할 수 있다. 이러한 서로 다른 분야 간의 융합은 결국 인간감각의 총체성을 모방하고 구현하는 것을 목표로 하고 있으며 MusicLM은 이러한 방향의 극히 일부라 할 수 있는 것이다. 본 논문은 MusicLM과 관련된 기술의 세부적인 내용을 살펴보고 이를 활용한 경제적 측면, 작업의 효율성을 살펴본다. 또한 실용적이고 생산적인 내용을 포함해, 구동 원리, 음악에 대한 새로운 이해방식을 제안하고 있다. 끝으로 영감과 창의성에 관한 음악의 철학적 접근과 구체적인 방법론을 다루며 지금까지 소개된 여러 아이디어가 창작세계의 어려움을 극복할 이정표로서 기능할 것을 기대한다.