昨日更新しようとした記事を保存し忘れた話
たいしたこと書いてなかったような気がする.つらい.
ギターで弾いた最低音の音を検出するアルゴリズムの実装が終わった.今日で調整も終わったので,ゴルゴ13を見ながらひたすら実験をしていた.
22フレットのストラト,リアピックアップ,トーンを最大にして,1フレットあたり1000サンプル取るまで1秒間隔で弾き続けるだけ.この設定で全部のフレットの実験をひたすらやってた.
実験の結果は,平均98.2%で検出できる結果になった.1弦に3~4箇所ぐらいデッドポイントがあり,そこでは50%,70%,80%ぐらいの精度で検出していた.急激に音が減衰してしまうと,1秒間隔で弾いたとしても音が途切れてしまって実験にならない.弾いてない音を検出することはできないので仕方がない.
それでも,デッドポイントを除けば,ほぼ99.8%ほどで検出できるんじゃないかなと思う.それほど精度のよい手法ということになる.
今度は,フロントピックアップでトーンを絞って実験することになる.トーンやピックアップの位置で倍音構造が変化するから,それに耐えられる手法なのかどうか検証する.
その次はいよいよ和音になる.和音も適当にやってみたけれども,ほぼ最低音を検出することができる.最低音だけ体よく検出できる手法ということが,少しずつわかってきている.
研究は色々なことを明らかにするための活動と考えると,今やっていることはすごく研究っぽい気がする.今の手法の理論的なバックグラウンドは謎だけれども…….
今の手法だと,最低音しか検出することができない.一番低い音しか取れないけれども,音響信号に分布しているスペクトルが基音+倍音構造と仮定すると,そのスペクトルから音を推定することができるんじゃないかな,と思って少し前にそれっぽいものを実装した.
もともと最低音を検出するための手法として作ったつもりだったけれども,実験をしたら役に立たなかった.一方で,最低音以外の和音を綺麗に検出することができたので,それを少し調整すれば,和音を検出する手法は完成になる.
今の研究が完成したら,7月下旬に音楽の特集号が組まれるので,そこに投稿しようと思う.ただ,理論的なバックグラウンドは全くないので,その辺りはアルゴリズムや実験結果などから,ある先生に理論を組み立ててもらえないか相談してみたい.
和音の実験結果がよければ,ICMC(音楽情報処理のSIGGRAPH?)とかに投稿したいなぁとか思うけれども,正直な所,英語でコミュニケーションは取りたくても,そのために大量の時間を割くのはつらい.日本語みたいにぱぱっとできないものかな.
和音の方は実時間で実行できる目処が立っているので,将来的にはライブラリ化を目指したい.様々な環境で動くようなものが出来たりするといいなぁと思う.