ソフトウェア

「バッハっぽさとは何か?」をAIに理解させることを可能にする330曲・100万音分のデータセットが公開される

By grfx_guru

人間は音楽を聴いて「この曲はバッハの作曲だな」や「このフレーズはモーツァルトに似ている」といった分析を行うことが可能です。その際には脳の中で音の高さや長さを分析して自分の記憶と照合して……という処理が行われているわけですが、コンピューターにも同様の能力を可能にさせるための詳細なデータセットが公開されました。

What makes Bach sound like Bach? New dataset teaches algorithms classical music | UW Today
http://www.washington.edu/news/2016/11/30/what-makes-bach-sound-like-bach-new-dataset-teaches-algorithms-classical-music/

2016年11月、アメリカ・ワシントン大学の研究チームがクラッシック音楽を解析した膨大なデータセット「MusicNet」を公表しました。このデータセットは330曲に及ぶライセンスフリーの音源を解析したもので、演奏されている全ての音の音程や発音/終音したタイミングなどを、「◯分△△秒から××秒まで『ラ』の音が鳴っている」という非常に細かいレベルでデータ化することに成功しています。その結果、音のデータの数は100万個以上にものぼっているとのこと。

そのイメージ例がムービーで公開されています。音源として与えられたベートーヴェンの「弦楽四重奏曲第11番」の一部を抜き出したもので、音の高さや長さ、さらには演奏されている楽器が詳細なデータに変換されています。

MusicNet - YouTube


いわば、実際に鳴っている音を元に極めて詳細な楽譜が採譜されたデータということになるわけですが、このデータセットをもとにAIに「音楽」を学習させ、クラッシック音楽を再構築させる試みが行われています。ワシントン大学のSham Kakade准教授は「私たちは、高いレベルで『なぜ音楽が耳を惹きつけるのか』ということ、そして、作曲された楽曲をいかにしてより良く理解するか、または何が『バッハらしさ』につながっているのかを理解する、といったことに関心があります」と語っており、MusicNetが可能にすることについて「いくつもの方面から、機械学習と作曲の分野でMusicNetが創造性と実際の制作における利点を発揮することを期待しています」と語っています。

これまで、音楽の分析は人の耳と手によって進められることが多かったのですが、MusicNetは膨大なデータをもとにそれらの行為をほぼ自動で行えるようにした点が今後における大きなアドバンテージになるとのこと。これは、写真の中身をビッグデータとAIによって解析し、写っている物や人物を分析できる「ImageNet」と同じようなことを音楽の世界でも実現しようとする試みといえます。

研究チームが取得したデータセットは以下のサイトで公開されており、誰でもダウンロードできるようになっています。

Getting Started
http://homes.cs.washington.edu/~thickstn/start.html


また、同研究チームによる論文は査読中の段階ですが、プレプリントサーバの「arXiv」で閲覧することが可能です。

[1611.09827] Learning Features of Music from Scratch
https://arxiv.org/abs/1611.09827

・関連記事
世界初の人工知能が作ったポップソング「Daddy’s Car」と「Mr Shadow」がYouTubeで公開中 - GIGAZINE

1曲弾けばプログラムが組める、ピアノの鍵盤を叩いてプログラミングができるソフトウェア登場 - GIGAZINE

人工知能が1枚のクリスマスの写真から歌詞つきの「クリスマスソング」を作成するとこうなる - GIGAZINE

音楽を聴いて鳥肌がたつ人とそうでない人では脳にどのような違いがあるのか? - GIGAZINE

今まで未解明だった「音楽」が脳で処理されるメカニズムが明らかに - GIGAZINE

in ソフトウェア,   動画,   アート, Posted by logx_tm