Интерферированная русская речь носителей кабардино-черкесского языка: экспериментальное исследование
Автор: Гуртуева Ирина Асланбековна, Каменский Михаил Васильевич
Журнал: Вестник Волгоградского государственного университета. Серия 2: Языкознание @jvolsu-linguistics
Рубрика: Межкультурная коммуникация и сопоставительное изучение языков
Статья в выпуске: 4 т.23, 2024 года.
Бесплатный доступ
Сложность задачи распознавания ненативной речи возникает как следствие несоответствия между речью неносителей и нативными языковыми ресурсами, используемыми при обучении, а также акустическом и языковом моделировании произношения на основе data-driven approach. Существующие подходы для решения этой задачи, эксплуатирующие ресурсы ненативной речи или мультилингвальные корпусы, малоэффективны. Необходимо исследование специфики речевых психофизиологических механизмов билингвов, оперирующих в коммуникации двумя и более языковыми системами. В статье показаны результаты экспериментально-фонетического исследования межъязыковой интерференции и акцента в русской речи носителей кабардино-черкесского языка. Материалы эксперимента включают аудиозаписи фонационного чтения предварительно подготовленного списка слов. Предварительный акустический анализ исходных формантных измерений ненативной русской речи носителей кабардино-черкесского языка на фонетическом уровне показал систематическое отклонение акустических паттернов аллофонов гласных [A] и [O] в пространстве F1-F2. Установлено, что идентификационно значимым признаком акцентного гласного [А] в речи мужчин и женщин носителей кабардино-черкесского языка является систематическое отклонение его формантных характеристик в пространстве F1-F2 вправо-вверх от эталонных значений орфоэпической нормы русского языка. Классифицирующим признаком акцентного [O] в речи мужчин - это высокая вариативность значений второй форманты F2 и выраженное отклонение общего среднего по F2 вверх относительно гендерно нейтрального и гендерно специфицированного эталонов. Определено, что в речи женщин отличительным признаком кабардино-черкесского акцента служит локализация наблюдений правее по F1 и ниже по F2 относительно гендерно специфицированного эталона в пространстве F1-F2. Сопоставление вокалических систем на основе акустических характеристик позволяет объективно оценить взаимовлияние языковых систем, обнаружить систематические ошибки реальной речевой деятельности, снизить неточность категоризации на основе довольно условных фонетических признаков гласных. Данное исследование нацелено на разработку методов моделирования речи неносителей для последующего применения в системах распознавания речи, идентификации языка и акцентов в условиях ограниченности лингвистических ресурсов. Полученные экспериментальные данные могут быть полезны для продолжения разработки теории контрастивного анализа, выявления типичных интерферированных произносительных ошибок, а также способствовать дальнейшему развитию теоретических моделей усвоения иностранных языков.
Идентификация акцентов, фонетическая интерференция, распознавание речи, речевые базы данных, контрастивный анализ, теория языковых контактов, базы данных нестандартной речи, акустический анализ
Короткий адрес: https://sciup.org/149146840
IDR: 149146840 | DOI: 10.15688/jvolsu2.2024.4.10
Список литературы Интерферированная русская речь носителей кабардино-черкесского языка: экспериментальное исследование
- Гуртуева И. А., 2020. Современные проблемы автоматического распознавания речи // Известия Кабардино-Балкарского научного центра РАН. № 6 (98). С. 20-32. DOI: 10.35330/1991-66392020-6-98-20-33
- Козлачков С. Б., Дворянкин С. В., Бонч-Бруевич А. М., 2016. Ограничения формантной теории разборчивости речи в приложениях защиты речевой информации // Вопросы кибербезопасности. №5 (18). С. 28-35.
- Леонов А. С., Макаров И. С., Сорокин В. Н., 2009. Частотные модуляции в речевом сигнале // Акустический журнал. Т. 55, № 6. С. 809-821.
- Программа для анализа и визуализации спектрального состава аудиосообщений : свидетельство о гос. регистрации программы для ЭВМ № 2020618637 от 22.07.2020 /
- БжихатловК. Ч., Гуртуева И. A. Сорокин В. Н., Цыплихин А. И., 2004. Сегментация и распознавание гласных // Информационные процессы. Т. 4, № 2. С. 202-220.
- Фонетико-акустический корпус акцентной русской речи : свидетельство о гос. регистрации базы данных № 2023620331 от 23.01.2023 : заявка № 2022623155 / Гуртуева И. А. Amodei D., Anubhai R., Battenberg E., Case C., Casper J., Catanzaro B. et al., 2016. Deep Speech 2: End-to-End Speech Recognition in English and Mandarin // ICML'16 : Proceedings of the 33rd International Conference on International Conference on Machine Learning. Vol. 48. P. 173182. DOI: 10.48550/arXiv. 1512.02595
- Chen S. F., Kingsbury B., Mangu L., Povey D., Saon G., Soltau H., Zweig G., 2006. Advances in Speech Transcription at IBM Under the DARPA EARS program // IEEE Trans. Audio, Speech, and Language Processing. Vol. 14. P. 1596-1608.
- Das N., Zegers J., Van Hamme H., Francart T., Bertrand A., 2020. Linear Versus Deep Learning Methods for Noisy Speech Separation for EEG-Informed Attention Decoding // Journal of Neural Engineering.Vol. 17, № 4. DOI: 10.1088/1741-2552/aba6f8
- Deng K., Cao S., Ma L., 2021. Improving Accent Identification and Accented Speech Recognition Under a Framework of Self-Supervised Learning // Proc. Interspeech. P. 1504-1508. DOI: 10.48550/ arXiv.2109.07349
- Evermann G., Chan H. Y., Gales M. J. F., Hain T., Liu X., Mrva D., Wang L., Woodland P. C., 2004. Development of the 2003 CU-HTK Conversational Telephone Speech Transcription System // Proc. IEEE ICASSP. Vol. 1. Monreal : [s.n.]. IP 1-249.
- Boersma P., Weenink D., 2003. Praat 6.3.08: Computer Soft Package for Speech Analysis in Phonetics. URL: https://www.fon.hum.uva.nl/praat/
- Han C., O'Sullivan J., Luo Y., Herrero J., Mehta A. D., Mesgarani N., 2019. Speaker-Independent Auditory Attention Decoding Without Access to Clean Speech Sources // Sci Adv. Vol. 15, iss. 5. DOI: 10.1126/sciadv. aav6134
- Kristjansson T. T., Hershey J. R., Olsen P. A., Rennie S. J., Gopinath R. A., 2006. Super-Human Multi-Talker Speech Recognition: The IBM 2006 Speech Separation Challenge System // Proc. Interspeech. Vol. 12. Pittsburg : [s.n.]. P. 155.
- Ladefoged P., Johnson K. A, 2014. Course in Phonetics. Boston : [s. n.]. 352 p.
- Lippmann R. P., 1997. Speech Recognition by Machines and Humans // Speech Communication. Vol. 22, № 1. P. 1-15.
- Lobanov B., Tsirulnik L., 2006. Development of Multi-Voice and Multi-Language TTS Synthesizer (Languages: Belarussian. Polish. Russian) // SPECOM'2006. P. 274-283.
- Matsoukas S., Gauvain J.-L., Adda G., Colthurst T., Kao C.-L., Kimball O., Lamel L., Lefevre F., Ma J. Z., Makhoul J. et al., 2006. Advances in Transcription of Broadcast News and Conversational Telephone Speech Within the Combined Ears bbn/limsi System // IEEE Transactions on Audio, Speech, and Language Processing. Vol. 14. P. 1541-1556.
- Nagoev Z., Gurtueva I., Bzhikhatlov K., Anchekov M., 2022. Phonetic-Acoustic Database of High-Accent Russian Speech // Procedia Computer Science. Vol. 213. P. 518-522. DOI: 10.1016/ j.procs.2022.11.099
- Najafian M., Russell M., 2020. Automatic Accent Identification as an Analytical Tool for Accent Robust Automatic Speech Recognition // Speech Communication. Vol. 122. P. 44-55. DOI: 10.1016/j. specom.2020.05.003
- Pallett D. S., 2003. A Look at NIST's Benchmark ASR Tests: Past, Present, and Future // IEEE Automatic Speech Recognition and Understanding Workshop. P. 483-488. DOI: 10.1109/ASRU.2003.1318488
- Seide F., Li G., Yu D., 2011. Conversational Speech Transcription Using Context-Dependent Deep Neural Networks // Proceedings Interspeech. Florence. P. 437-440. DOI: 10.21437/ Interspeech. 2011-169
- SpecApp : свидетельство о гос. регистрации программы для ЭВМ №2021615667 от 21.04.2021 / Гуртуева И. А., Бжихатлов К. Ч. Stolcke A., Chen B., Franco H., Gadde V. R. R., Graciarena M., Hwang M.-Y., Kirchhoff K., Mandal A., Morgan N., Lei X. et al., 2006. Recent Innovations in Speech-to-Text Transcription at SRI-ICSI-UW // IEEE Transactions on Audio, Speech, and Language Processing. Vol. 14. P. 1729-1744. DOI: 10.1109/TASL.2006.879807
- Straetmans L., Holtze B., Debener S., Jaeger M., Mirkovic B., 2022. Neural Tracking to Go: Auditory Attention Decoding and Saliency Detection with Mobile EEG // J. Neural Eng. Vol. 18 (6). DOI: 10.1088/1741-2552/ac42b5
- Weinreich U., 1979. Languages in Contact: Findings and Problems. The Hague : Mouton Publishers. 148 p.
- Weng C., Yu D., Seltzer M. L., Droppo J., 2014. SingleChannel Mixed Speech Recognition Using Deep Neural Networks // Proc. IEEE ICASSP. Florence. P. 5632-5636. DOI: 10.1109/ICASSP.2014.6854681