Skip to content

Latest commit

 

History

History
23 lines (17 loc) · 1.36 KB

README.md

File metadata and controls

23 lines (17 loc) · 1.36 KB

リカレントニューラルネットワーク(RNN)を用いた自動作曲システム

未来大3年次プロジェクト学習

・リカレントニューラルネットワークをフルスクラッチで実装
・1つ音を入力されたら、次の音を予測する
・入出力はMidiファイルで行う

入力(出力)は
"128のOnehotベクトル(Midiで表現できる音の範囲)"+"音を出す(0)/出さない(1)"+"11のOnehotベクトル(音符の種類(音の長さ))" の計140のベクトルになっている

sin波の予測は可能(左:Loss、右:予測結果)

K.C.Blues/Charlie Parkerを学習させた結果は以下の通り
音の予測に関しては途中までは良いが、最終的に周期的になってしまう(右:x軸は時間、y軸は音の高さ)

結果

・音符の種類をうまく学習できなかったため、出力の際はすべて4分音符で出力した
・音楽データは時系列データとしては複雑すぎる
・RNNの発展形であるLSTMを使うといいのではないか