Skip to content
Page and materials for the 2nd Seminar on Artificial Intelligence applied to Sound and Music Composition, Tokyo University of the Arts, 15th of January 2020.
Branch: master
Clone or download
Latest commit f7b875e Jan 29, 2020
Permalink
Type Name Latest commit message Commit time
Failed to load latest commit information.
documents
misc
README.md
_config.yml
english_abstracts.md
japanese_abstracts.md

README.md

Follow-up concert announcement

Tokyo University of the Arts is organizing a concert as a continuation of the seminar. Please, feel invited to join and find all details on the following page: concert announcement

February 19,2020, Open 18:00 Start 19:00

Tokyo University of the Arts, Department of Musical Creativity and the Environment

Senju Campus, 7 Hall.

1-25-1 Senju, Adachi-ku, Tokyo 120-0034

 


In collaboration with:

  • The University of Tokyo

  • IRCAM (Paris, France - Institut de Recherche et Coordination Acoustique/Musique).

 

 

Outline

Machine learning and deep neural networks have thrived through the last decades on increasing computational ressources, allowing for a steady development of new concepts along with a broad range of applications extending and complementing human knowledge. Computer vision and text processing are prominent topics in which many algorithms have been tested. They generalize to a certain extent to music language and sound, which nonetheless hold some key specificities that have themselves established as new reference topics to AI research.

The knowledge and experience of music are grounded into several layers of information. In the symbolic domain, one can account for compositional structures. However it is abstracted from the sound content and thus unmatched with a range of contemporary practices and performances that focus on sound production and perception. Forming and analysing consistent sctrutures accross scales ranging from streams of waveform samples (~ miliseconds) to musical events and pieces (seconds to minutes) has drawn many research efforts to close a gap, that is still open.

To address these questions, a constant dialogue has florished accross modalities. Pulling from general to music oriented developements and back. Successfully specifying some of these breakthroughs to sound domain and raising new challenges along with solutions that directly emerged from the intrinsic nature of sound. Be it on the level of music theory and signal processing, or to their resulting psychoacoustic qualities.

Given this extensive corpus of research and technologies, that is constantly refining, remains yet a challenge in implementing meaningful interactions for human creativity and production, such as applying to music composition and sound design. How will generative neural networks integrate in our practices ? How can AI enrich human art and foster new paradigms for music ?

This pannel of presentations followed with Q&A is an invitation to assess some of the latest developments of AI applied to music and sound, both from a computational and a composer view. Engaging computer science and music practitioners to discuss the specific potentialities that are arising at the interesection of their fields and beyond.

 


人工知能と作曲2 研究会 東京芸術大学 千住キャンパス 2020年1月15日

コラボレーション:東京大学、IRCAM

概要

機械学習とディープニューラルネットワークは、近年、益々性能を高めておりしており、人間の知識を拡張してくれるだけでなく、新しい概念による開発をも可能にしてくれている。コンピュータービジョンとテキスト処理は、既に広く知られている研究であろう。しかし、作曲と音響に関する人工知能の研究に関しては新たな課題である。 音楽に関する知識と経験は、様々な分野にまたがっている。作曲構造においては、音楽理論により説明することができる。 一方で、サウンドに関しては抽象的なものであるため、その生成と知覚に焦点を当てた範囲を考慮すると、前者とは随分異なるものと言えよう。 最近では、ミリ秒単位の波形サンプルから音楽イベントや曲(数秒から数分)に至るまで、スケール全体で一貫した構造を形成および分析するための多くの研究が行われている。 これにより、異なる分野間で盛んに対話が行われるようになった。 一般的な人工知能ではなく、音楽側の視点に立ち、 サウンドの本質的な性質により、新しい課題を提起するに至った。それは、音楽理論、信号処理、音響心理学まで、様々な分野に渡る。 この研究のためには大規模な技術が必要とされる課題に加えて、音楽の作曲やサウンドデザインへの応用など、人間の創造性と実践としての創作のために、意義のあるインタラクションを実装する課題は依然として残っている。果たして、ジェネラティブニューラルネットワークは私たちの実践をどのように統合してくれるのか?AIはどのようにして人間の芸術を豊かにし、音楽の新しいパラダイムを提示できるのか? この研究会では、コンピューターサイエンスと作曲家側の両観点から、音楽とサウンドに適用される人工知能の最新の開発について再考する。 コンピュータサイエンスと音楽の専門家に、それぞれの分野にて共通する課題とその可能性についても議論する

 

Program

This seminar is free, all interested persons are welcome to join regardless of institution or academic background. You may contact us, or just come on the day without prior notice or registration. We kindly ask you to please attend the whole seminar as far as possible.

16h30: Doors open

17h: Start of the presentations and Q&A

17h-17h30: Presentation 1

  • Suguru Goto (Tokyo University of the Arts), The Technique of Contemporary Music Composition with using Deep Learning

17h30-18h: Presentation 2

  • Jinwoong Kim (Tokyo University of the Arts), Orchidea, An intelligent assisted orchestration tool

18h-18h30: Presentation 3

  • Philippe Esling (IRCAM/The University of Tokyo), ACIDS - Artificial Creative Intelligence

18h30-19h: Presentation 4

  • Naotake Masuda (The University of Tokyo), Audio Synthesizer Control using Deep Generative Models and Normalizing Flows

19h-19h30: Presentation 5

  • Sachi Tanihara (Tokyo University of the Arts), AI composition and physicality --from Virtual Composer-Singer to Music Robots all over the world--

19h30-19h45: Break

19h45-20h15: Presentation 6

  • Daisuke Saito (The University of Tokyo), Modeling of chorus singing by a signal processing approach

20h15-20h45: Presentation 7

  • Jie Man (Tokyo University of the Arts), Introduction of bach library in Max/MSP

20h45-21h15: Presentation 8

  • Adrien Bitton (IRCAM/The University of Tokyo), Neural granular sound synthesis for raw waveform generation

21h15-21h45: Presentation 9

  • Shinae Kang (Tokyo University of the Arts), A discussion of works created with the aid of AI and AI research trends for music

22h: End of the seminar

 

English abstracts

Presentation materials will be provided prior to the start of the seminar.


発表者

 

Details

Date and time: The 15th of January 2020, from 16h30 until 22h. Start of the first presentation at 17h.

Place: Tokyo University of the Arts, Department of Musical Creativity and the Environment, Senju Campus, The 1st conference room.

On the 1st floor, when you enter the building of Senju Campus, there is an elevator at the front. You ought to go the right side and the Conference Room 1 in on the right side at the end of the corridor.

〒 120-0034, 1-25-1 Senju, Adachi-ku, Tokyo.

Access to Senju Campus

Presentations will be given in English, however, Q&A may be possible in Japanese. We invite the discussions to be continued around a table in a neighboring Izakaya after 22h.

Following this seminar, a concert is being prepared for Februar by the Department of Musical Creativity and will be announced.

For information about the previous edition, please refer to the 1st edition webpage.

Contacts: bitton@ircam.fr / goto.suguru@ms.geidai.ac.jp

 


日時:2020年1月15日 16:30より22:00まで。 プレゼンテーションは17:00より開始。
 場所: 東京芸術大学 音楽環境創造科 千住キャンパス 第一講義室 〒120-0034 東京都足立区千住1-25-1 東京藝術大学千住校地 「北千住駅」から徒歩5分(JR常磐線、東京メトロ千代田線、日比谷線、東武スカイツリーライン、つくばエクスプレス) http://www.geidai.ac.jp/access/senju

お問い合わせ: bitton@ircam.fr

*プレゼンテーションは英語で行われます。 **この研究会の後、2月19日に東京芸術大学にて人工知能で作曲された作品のコンサートが行われる予定。 ***前回の学会についてはこちらを参照して下さい。https://tcmml.github.io ****一般より参加ご希望は、事前にご連絡を下さい。 Tel: 050-5525-2742 Email: mce-office@ml.geidai.ac.jp

You can’t perform that action at this time.