Los audiodescriptores: voces neutras y voces agradables

Autores/as

DOI:

https://doi.org/10.3989/loquens.2020.076

Palabras clave:

audio description, prosody, users with sight loss, perception

Resumen


El objetivo de este estudio es analizar los rasgos prosódicos de un corpus de audiodescripciones en español para determinar la neutralidad y la agradabilidad en la prosodia que emplean los locutores. El análisis supone una revisión de las recomendaciones sobre la locución que aparecen en las guías. Según la Asociación Española de Normalización (UNE 153020), la locución del guion de la audiodescripción (AD) debe ser neutra, debiendo evitarse la entonación afectiva.

El corpus de análisis está constituido por las audiodescripciones de locutores profesionales masculinos y femeninos. Se han analizado la duración, el tono y la amplitud de los enunciados emitidos. Posteriormente, se ha llevado a cabo un test de percepción para evaluar la neutralidad y la agradabilidad de las voces de aquellos locutores seleccionados a partir de los resultados obtenidos en el análisis de los parámetros acústicos considerados. Las respuestas del test de percepción fueron tratadas tomando por separado dos grupos de sujetos: un grupo formado por las personas que presentaban una discapacidad visual y otro grupo constituido por personas que no tenían esa limitación. Los resultados de este estudio pueden contribuir a una mejor selección de las voces de los audiodescriptores dependiendo de la tarea que deban realizar, y a establecer las diferencias en función de las limitaciones visuales que puedan tener los usuarios.

Descargas

Los datos de descargas todavía no están disponibles.

Citas

AENOR. (2005). Norma UNE:153030. Audiodescripción para personas con discapacidad visual. Requisitos para la audiodescripción y elaboración de audioguías. Madrid: AENOR.

Alter, K. (2002). Suprasegmentale Merkmale und Prosodie, En H. M. Müller (Ed.), Arbeitsbuch Linguistik (pp.148-169). Paderborn: UTB-Ferdinand Schöning.

Banse, R. y Scherer, K. R. (1996). Acoustic profiles in vocal emotion expression. Journal of Personality and Social Psychology, 70(3), 614-636. https://doi.org/10.1037/0022-3514.70.3.614 PMid:8851745

Boersma, P. y Weenik, D. (2019). Praat: Doing Phonetics by Computer [Computer program]. Electronic version: <http://www.praat.org>

Cabeza-Cáceres, C. (2013). Audiodescripció i recepció. Efecte de la velocitat de narració, l'entonació i l'explicitació en la comprensió fílmica. Barcelona: TDX. Versión electrónica: https://www.tdx.cat/handle/10803/113556

Crystal, D. (2008). A Dictionary of Linguistics and Phonetics. Oxford: Blackwell (6.ª edición). https://doi.org/10.1002/9781444302776

Gougoux, F., Belin, P., Voss P, Lepore, F., Lassonde, M. y Zatorre, R.J. (2009). Voice perception in blind persons: A functional magnetic resonance imaging study. Neuropsychologia, 47, 2967-2974. https://doi.org/10.1016/j.neuropsychologia.2009.06.027 PMid:19576235

Gougoux, F., Lepore, F., Lassonde, M., Voss, P., Zatorre, R. J. y Belin, P. (2004). Neuropsychology: Pitch discrimination in the early blind. Nature, 430, 309. https://doi.org/10.1038/430309a PMid:15254527

Hidalgo Navarro, A. (2017). Nuevas aportaciones al estudio funcional de la entonación coloquial: propuesta ecléctica de integración de modelos de análisis. Estudios Filológicos, 60, 127-150. https://doi.org/10.4067/S0071-17132017000200006

Iglesias Fernández, E. (2006). La indefinición del parámetro "agradabilidad de la voz" y los estudios de calidad de la interpretación simultánea. En M. J. Varela Salinas (Coord.), La evaluación en los estudios de traducción e interpretación (pp. 225-239). Sevilla: Bienza.

Iglesias Fernández, E. (2013). Understanding variability in interpreting quality assessment: user's sex and judgements for pleasant voice. En C. Way, S. Vandepitte https://doi.org/10.1075/btl.108.06igl

R. Meylaerts y M. Bartłomiejczyk (Eds.), Tracks and Treks in Translation Studies: Selected Papers from the EST Congress, Leuven 2010 (pp. 103-125). Amsterdam: John Benjamins.

Kraxenberger, M. et al. (2018). Prosody-Based Sound-Emotion Associations in Poetry. Frontiers in Psychology. https://doi.org/10.3389/fpsyg.2018.01284 PMid:30090078 PMCid:PMC6068276

Machuca, M. J., Matamala, A. y Ríos, A. (2020). Prosodic features in Spanish audio descriptions of the VIW corpus. En M. Richart-Marset y F. Calamita (Eds.), Traducción y accesibilidad en los medios de comunicación: de la teoría a la práctica / Translation and Media Accessibility: From Theory to Practice. MonTI 12, (en prensa). https://doi.org/10.6035/MonTI.2020.12.02

Matamala, A. (2018). One short film, different audio descriptions. Analysing the language of audio descriptions created by students and professionals. Onomazéin, 41, 185-207. https://doi.org/10.7764/onomazein.41.04

Matamala, A. (2019). Accessibilitat i traducció audiovisual. Vic: Eumo.

Matamala, A. y Villegas, M. (2016). Building an audio description multilingual multimodal corpus: the VIW project. En J. Edlund, D. Heylen y P. Paggio (Eds.) Proceedings: Multimodal Corpora: Computer vision and Language processing- MMC2016 (pp. 29-32). Paris: ELRA. Electronic version: <http://www.lrec-conf.org/proceedings/lrec2016/workshops/LREC2016Workshop-MCC-2016-proceedings.pdf>

Pell, M. D., Paulmann, S., Dara, C., Alasseri, A. y Kotz, S. A. (2009). Factors in the recognition of vocally expressed emotions: a comparison of four languages. Journal of Phonetics, 37, 417-435. https://doi.org/10.1016/j.wocn.2009.07.005

Podsiadło, M. y Shweta, Ch. (2016). Text-to-Speech for Individuals with Vision Loss: A User Study. 347-351. https://doi.org/10.21437/Interspeech.2016-1376

Rodero, E. (2001). Locución informativa radiofónica. Tesis doctoral. Universidad Pontificia de Salamanca.

Rodero, E. (2002). El tono de la voz masculina y femenina en los informativos radiofónicos: un análisis comparativo. En Mujeres, Hombres y Medios de Comunicación (pp. 319-331). Madrid: Lex Nova

Rodríguez Bravo, A. (1989). La construcción de una voz radiogénica. Tesis doctoral. Universitat Autònoma de Barcelona

Scherer, K. R. (1986). Vocal affect expression: A review and a model for future research. Psychological Bulletin, 99, 143. https://doi.org/10.1037/0033-2909.99.2.143

Scherer, K. R. (2013). Emotion in action, interaction, music, and speech. En A. A. Micheal (Ed.), Language, Music, and the Brain: A Mysterious Relationship (pp. 107-139). Cambridge: MIT Press. https://doi.org/10.7551/mitpress/9780262018104.003.0005 PMid:23890120

Stolarski, Ł. (2015). Pitch patterns in vocal expression of "Happiness" and "Sadness" in the reading aloud of prose on the basis of selected audiobooks. Research in Language, 13, 141-162. https://doi.org/10.1515/rela-2015-0016

Ververidis, D. y Kotropoulos, C (2006). Emotional speech recognition: resources, features, and methods. Speech Communication, 48(9), 1162-1181 https://doi.org/10.1016/j.specom.2006.04.003

Publicado

2020-12-30

Cómo citar

Machuca, M. J. ., Matamala, A., & Ríos, A. (2020). Los audiodescriptores: voces neutras y voces agradables. Loquens, 7(2), e076. https://doi.org/10.3989/loquens.2020.076

Número

Sección

Artículos

Datos de los fondos

Ministerio de Economía y Competitividad
Números de la subvención PGC2018-096566-B-I00

Generalitat de Catalunya
Números de la subvención 2017SGR113

Artículos más leídos del mismo autor/a