Preview

Информатика

Расширенный поиск

Разработка алгоритма распознавания эмоций человека с использованием сверточной нейронной сети на основе аудиоданных

https://doi.org/10.37661/1816-0301-2022-19-4-53-68

Аннотация

Цели. Приведено описание и рассмотрен опыт создания алгоритма распознавания эмоционального состояния субъекта.
Методы. Использованы методы обработки изображений.
Результаты. Предложенный алгоритм позволяет распознавать эмоциональные состояния субъекта на основании звукового набора данных. Благодаря проведенному исследованию удалось улучшить точность работы алгоритма путем изменения подаваемого на вход нейронной сети набора данных.
Описаны этапы обучения сверточной нейронной сети на заранее заготовленном наборе звуковых данных, а также структура алгоритма. Для валидации нейронной сети был отобран иной, не участвующий
в тренировке, набор аудиоданных. В результате проведения исследования построены графики, демонстрирующие точность работы предлагаемого метода.
После получения первоначальных данных сделан анализ возможностей улучшения алгоритма с точки зрения эргономики и точности его работы. Разработана стратегия, позволяющая добиться лучшего результата и получить более точный алгоритм. На основании заключений, изложенных в статье, приводится обоснование выбора представления набора данных и программного комплекса, необходимого для реализации программной части алгоритма.
Заключение. Предложенный алгоритм обладает высокой точностью и не требует больших вычислительных затрат.

Для цитирования:


Семенюк В.В., Складчиков М.В. Разработка алгоритма распознавания эмоций человека с использованием сверточной нейронной сети на основе аудиоданных. Информатика. 2022;19(4):53-68. https://doi.org/10.37661/1816-0301-2022-19-4-53-68

For citation:


Semenuk V.V., Skladchikov M.V. Algorithm development for recognizing human emotions using a convolutional neural network based on audio data. Informatics. 2022;19(4):53-68. (In Russ.) https://doi.org/10.37661/1816-0301-2022-19-4-53-68

Просмотров: 594


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1816-0301 (Print)
ISSN 2617-6963 (Online)