ищу способ как можно:
1) генерировать звук
1.1) генерировать звук конкретной частоты и громкости (через колонки), бесшовный(чтобы не возникало шипения при переходе между частотами)
1.2) генерировать сложный звук состоящий из нескольких частот
2) считывать звук (в реалтайме, с микрофона)
2.1) основная частота
2.2) много частот
теоретический вопрос: если упростить голос человека до одной главной частоты, он будет остаться голосом, т.е. можно ли будет его понять?
(под одной частотой я понимаю когда частота звука меняется не чаще, чем один раз за амплитуду текущей частоты)
я понимаю, что скорее всего стандартные средства не могут так точно управлять звуком, поэтому подойдут любые сторонние библиотеки, которые смогут это сделать (кто чем пользовался?)
естественно, желательно чтобы все это происходило через потоки или другим способом, но не через файлы.
Буду благодарен за любую помощь. сейчас полезнее всего была бы ссылка на библиотеку и немного помощи о том, как её юзать.
Возможно уже есть подобный проект.
Конечная цель - скормить эти данные нейронной сети, и посмотреть, что получиться, и какие ресурсы нужны, чтобы сеть смогла издавать хотя бы какие-то осмысленные звуки