今月号の神戸っ子連載記事です。
今年に入り人工知能(以下AI)の進化を耳にする機会が増えた。
私たちの実生活にも進出し始めている。
自動車業界では自動運転技術が進み、株取引はすでにAIが行っているとか。
新聞には、10年後AIやロボットによって失われる職業という記事が掲載されているし、
一説では現在存在する職業の49%がAIに代替えされうるという予測がある。
では「音楽」を生業とした私たちの仕事はどうだろう?
実は、作曲家や音楽プロデューサーは早い段階でAIに代替えされる職業の一つと言われている。
「え?芸術は大丈夫でしょう?」と思われがちだし、
私自身も芸術は蚊帳の外だと思っていた。
しかしその考えは甘かった!
「AI作曲」をご存知だろうか。
これは、作曲したい曲調、長さ、サビへ移るタイミングなどを入力するだけで、
これまで人類が生み出した曲の膨大な情報を元にAIが自動的に作曲してくれるソフト。
もはや楽譜が読めなくても、音楽のイロハを知らなくても、
「こんな感じ」という曖昧でフワフワした情報のみで、
ドッシリ自分好みの音楽を作り出してしまう。
ここまで来たか、AI!
音楽を買う時代ではなく、聴きたい音楽を自ら作る時代だ。
AIと同様、ライブのデジタル化のスピードとスケールに驚かされる。
ヤマハが開発した音声合成システム「ボーカロイド」というソフトの中で人気を博すバーチャルアイドル、
初音ミクは、舞台に立ち、ライブ会場、
いや、正確に言うと幕張メッセ(キャパ9000席)でコンサートを行い、
観客を熱狂させている。舞台上で初音ミク(CG)が歌い踊る姿(動き)に違和感はない。
プログラミングは人間が行っている。
まさに、人とデジタルテクノロジーのコラボレーション芸術。
見事‼️
しかし、感心ばかりしていられない。
私たちが愛する音楽というものは、
高度テクニックが全てではない。
演奏者の息遣いや、努力の証、作曲家の微妙な心情などが曲に反映されるからこそ感動する。
音楽はいつも感情と隣り合わせなのだ。
しかし、甘酸っぱい、あの日須磨海岸で感じた風を数値化して表現音楽に出来るのだろうか。
続き
人工知能と音楽(2)『人間の発するエネルギー』