covid
Buscar en
Revista Latinoamericana de Psicología
Toda la web
Inicio Revista Latinoamericana de Psicología La percepción del habla durante el primer año de vida
Información de la revista
Vol. 46. Núm. 1.
Páginas 12-23 (octubre 2014)
Compartir
Compartir
Descargar PDF
Más opciones de artículo
Vol. 46. Núm. 1.
Páginas 12-23 (octubre 2014)
Acceso a texto completo
La percepción del habla durante el primer año de vida
Speech Perception in the First Year of Life
Visitas
11480
Leonardo Barón Birchenalla, Óscar Galindob, Oliver Müllerc
a Grupo de Estudios en Ciencias del Comportamiento, Fundación Universitaria Los Libertadores, Bogotá, Colombia
b Grupo de Estudios en Ciencias del Comportamiento, Universidad del Rosario, Bogotá, Colombia
c Grupo de Estudios en Ciencias del Comportamiento, Escuela de Medicina y Ciencias de la Salud, Programa de Psicología, Universidad del Rosario, Bogotá, Colombia
Este artículo ha recibido
Información del artículo
Resumen
Texto completo
Descargar PDF
Estadísticas

La adquisición del lenguaje implica una serie de habilidades complejas que evolucionan y se correlacionan haciendo que quien aprende por primera vez a hablar —o a expresarse mediante el lenguaje de señas— alcance los mejores resultados con el mínimo esfuerzo, siempre y cuando lo haga en el lapso de tiempo adecuado. En este sentido, se ha propuesto que la percepción temprana del habla tiene un papel primordial en la adquisición del lenguaje. En este artículo se presentan los resultados de las investigaciones más relevantes sobre la discriminación de clases y tipos de palabras, la discriminación prosódica e interidiomática, la discriminación fonológica y fonotáctica y el reconocimiento de regularidades de distribución entre los elementos de la señal del habla, con el fin de brindar un panorama del conocimiento científico actual sobre las capacidades de los menores de un año para percibir el lenguaje hablado.

Palabras clave:
Percepción del habla; Adquisición del lenguaje; Habilidades cognitivas; Desarrollo temprano

Language acquisition involves a number of complex skills that evolve in correlation with each other, thus making it possible for learners of their first spoken language —or sign language— to achieve the best results with minimal effort, as long as they do so within the appropriate period of time. In this regard, it is proposed that early speech perception has a primary role in language acquisition. In order to provide an overview of the current scientific knowledge as to the capabilities of children under the age of one to perceive spoken language, this paper presents the results of the most relevant research on discrimination of classes and types of words, interidiomatic and prosodic discrimination, phonological and phonotactic discrimination, as well as recognition of distributional regularities amongst the elements of the speech signal.

Keywords:
Speech Perception; Language Acquisition; Cognitive Skills; Early Development
Texto completo

A nadie sorprende que los infantes pasen rápidamente de emitir sonidos a balbucear sílabas y muy pronto a pronunciar palabras. Tampoco que rápidamente empiecen a unir estas palabras de manera creativa en oraciones que les permiten dar a conocer su mundo interno: sus emociones, deseos, sueños y necesidades. No hay misterio alguno en observar que un niño modifique el tono de su voz para hacer una pregunta o una afirmación, o que un buen día utilice una oración subordinada o una pasiva sin que nadie se haya tomado el trabajo de enseñarle cómo hacerlo.

Así las cosas, el proceso de aprender a hablar —o bajo similares circunstancias, aprender a expresarse mediante el lenguaje de señas— no impresiona a casi nadie debido a la forma natural y virtualmente automática en que sucede. Sin embargo, la adquisición del lenguaje implica una serie de habilidades complejas que evolucionan y se correlacionan de distintas maneras, haciendo que quien aprende por primera vez a hablar —o el lenguaje de señas— parezca hacer el mínimo esfuerzo con los mejores resultados, siempre y cuando lo haga en el lapso de tiempo adecuado.

La comunidad científica se preocupa bastante por todo lo relacionado con estos asuntos, pero no existe un consenso sobre la forma en que suceden y las leyes que los determinan. Las explicaciones pueden ser incluso diametralmente opuestas en la medida en que responden a posturas epistemológicas que entienden de manera muy distinta cómo los humanos adquirimos nuestro conocimiento. Así, constructivistas, racionalistas y empiristas, entre otros, tienen algo que decir respecto a la manera en que se aprende a hablar (Berwick, Friederici, Chomsky y Bolhuis, 2013; Holden, 2004; MacWhinney, 1998; Mellow, 2008; O'Grady, 2008; Pérez-Almonacid y Quiroga, 2010; Pinker y Jackendoff, 2005; Seidenberg y MacDonald, 1999; Scholz y Pullum, 2002; Weissenborn, Goodluck y Roeper, 1992).

En este sentido, se ha propuesto que uno de los aspectos más relevantes para la adquisición del habla es precisamente la percepción del habla; especialmente la que sucede desde muy temprano en la vida, incluso dentro del vientre de la madre (c.f. Nazzi, Jusczyk y Johnson, 2000). Con el fin de brindar un panorama del conocimiento científico actual sobre las capacidades de los menores de un año para percibir el lenguaje hablado, en este artículo se presentan las conclusiones más importantes al respecto, a las cuales se ha llegado por medios experimentales. La presentación comienza con las características de la percepción del habla in utero para enseguida centrarse en el primer año de vida; entonces, se discute la discriminación de clases y tipos de palabras, la discriminación prosódica e interidiomática, la discriminación fonológica y fonotáctica, y finalmente, el reconocimiento de regularidades de distribución entre los elementos de la señal del habla.

Percepción del habla en el útero

Dos meses antes del nacimiento, los fetos humanos ya escuchan toda clase de sonidos, incluidos los del habla, pero esta última no es percibida por ellos como se percibe en el ambiente externo, pues al entrar al útero tanto la voz materna como la de cualquier otro hablante experimentan un apagamiento y una atenuación significativa (sobre todo en los componentes de alta frecuencia), pero preservan relativamente bien las características prosódicas (ritmo, entonación y acento), siendo hasta cierto punto inteligibles (de una grabación hecha dentro del útero, los adultos pueden reconocer algunas palabras y cerca del 30% de los fonemas; Lecanuet y Schaal, 2002; Mehler, Christophe y Ramus, 2000). No obstante, existe una transmisión significativamente mejor de la voz materna al feto con respecto a cualquier otra voz externa. Las voces externas se atenúan unos 20 dB de nivel de presión sonora, sin diferencias significativas entre hombres y mujeres, mientras que la voz materna solo se atenúa unos 8 dB de nivel de presión sonora. La menor atenuación de la voz materna se debe a que esta no solo se transmite al feto por vía aérea desde fuera del vientre, sino también internamente a través de la vibración de los tejidos y huesos del cuerpo (Lecanuet y Schaal, 2002).

La recepción de la señal del habla genera en el feto activación en la corteza auditiva del cerebro, según comprobaron Hykin, Moore, Duncan, Clare, Baker, Johnson, et al. (1999) al realizar una resonancia magnética funcional a fetos de 38 a 39 semanas de edad gestacional, mientras escuchaban la grabación de una canción infantil en la voz de sus madres, presentada mediante altoparlantes a 100 dB de nivel de presión sonora (medidos en la superficie del abdomen de la madre), durante 15 s, 18 veces.

Según reveló el estudio de DeCasper y Spence (1986), una vez que el cerebro del feto ha recibido la señal del habla, en el caso de la voz materna, la almacena de tal forma que la información recibida es recordada e influye sobre la percepción de los sonidos del lenguaje después del nacimiento. En este estudio, mujeres embarazadas recitaron en voz alta un pasaje de una historia corta para niños 2 veces por día cada día durante sus últimas 6 semanas de gravidez. Los recién nacidos fueron puestos a prueba (hacia las 55 h de vida) con un procedimiento de reforzamiento diferencial, que consistió en la presentación, mediante un par de audífonos, de grabaciones de las historias oídas antes del nacimiento y de otras que no habían sido oídas, ambas recitadas por las respectivas madres.

La presentación de uno u otro tipo de historia dependía de las características de la succión de un chupete, conectado a un computador mediante un transductor de presión. Al llevar a cabo el procedimiento se observó que los recién nacidos aumentaban el tipo de succión que generaba la presentación de la historia oída antes de nacer pero no el tipo de succión que generaba la presentación de la historia desconocida. Este resultado indica la capacidad de los recién nacidos para reconocer estímulos auditivos complejos, escuchados con anterioridad en el útero, y es prueba de la influencia de la percepción intrauterina del habla materna en la percepción del habla después del nacimiento (para una explicación detallada de la técnica usada en este estudio, y de los métodos usados en general para examinar la percepción temprana del habla, véase Barón, Müller y Galindo, 2014).

Cuando se acerca el alumbramiento (en las 9 últimas semanas de gestación), el feto responde de manera diferente ante la voz de la madre respecto a otras voces femeninas, así como ante el lenguaje materno respecto a un lenguaje extranjero (pertenecientes ambos a categorías isocrónicas distintas1); no obstante, en ese lapso de tiempo no se diferencia la voz del padre de la de otro hablante masculino (Kisilevsky, Hains, Brown, Lee, Cowperthwaite, Stutzman, et al., 2009). Los hallazgos de este estudio, hecho con participantes de un contexto angloparlante y usando como lenguaje extranjero el mandarín, proveen evidencia sobre la existencia de una memoria rudimentaria, la existencia de procesos de aprendizaje del habla, y la facultad para discriminar entre idiomas pertenecientes a categorías rítmicas disimiles antes del nacimiento (el método usado en este estudio fue el de habituación; c.f. Doupe y Kuhl, 1999; en una variante relativa a la medición de la frecuencia cardíaca; c.f. Guasti, 2002).

Los fetos que están a punto de nacer tienen, además, la capacidad para diferenciar entre distintas sílabas de su lengua materna y entre las propiedades vocales de 2 hablantes cuando hay entre ellos contrastes importantes del timbre y de la frecuencia fundamental, como en el caso del contraste de la voz femenina y la masculina (sobre la frecuencia fundamental, o formante 0, F0, véase la nota al pie núm. 4). Se llegó a estas conclusiones a partir de experimentos hechos mediante el paradigma de habituación, en su variante de medición de la frecuencia cardíaca (Lecanuet y Schaal, 2002).

Discriminación de clases y límites de palabras

En cuanto a la capacidad para discriminar los distintos tipos de palabras, se ha encontrado que los recién nacidos de entre 1 y 3 días de edad pueden distinguir las palabras gramaticales de las palabras léxicas a partir de información acústica y fonológica, como la duración de las vocales, la complejidad de la estructura silábica y la amplitud de la señal2 (Shi, Werker y Morgan, 1999). En este estudio, valiéndose del paradigma de succión de elevada amplitud, o HASP (c.f. Guasti, 2002), se presentaron listas de palabras gramaticales y listas de palabras léxicas en inglés a recién nacidos de entre 1 y 3 días de edad, hijos de madres monolingües angloparlantes o de madres que hablaban un idioma distinto al inglés.

Las palabras presentadas eran repeticiones de vocablos que habían sido seleccionados de una grabación de audio de una madre anglófona dirigiéndose a su hija de 1 año. Todos los participantes del estudio discriminaron entre las listas de palabras léxicas y las listas de palabras gramaticales, aun cuando se balanceó la cantidad de sílabas y de tipos de palabras en ambas listas. No obstante, los resultados de este estudio no indican el conocimiento de las palabras ni la capacidad para segmentarlas, sino la capacidad para discriminarlas una vez han sido segmentadas.

Aparte de la capacidad temprana para discriminar las palabras gramaticales y léxicas, se ha encontrado que a los 6 meses los bebés prefieren escuchar las palabras léxicas respecto a las gramaticales (Shi y Werker, 2001). A esta conclusión se llegó mediante un estudio en el que se usó el paradigma de habituación de la fijación visual (detallado en el artículo) para familiarizar a los bebés de 6 meses con una lista de palabras léxicas o con una lista de palabras gramaticales. A continuación fueron puestos a prueba con estímulos de la misma categoría (léxica-léxica, gramatical-gramatical) o de la categoría contrastante (léxica-gramatical, gramatical-léxica).

Se encontró que los bebés podían discriminar entre los 2 tipos de estímulos al ser habituados a las palabras gramaticales y ser puestos a prueba con las palabras léxicas, pero no al contrario (ser habituados a palabras léxicas y ser puestos a prueba con palabras gramaticales). Esta asimetría indica una preferencia por las palabras léxicas respecto a las gramaticales, que reemplazaría la discriminación simétrica entre ellas encontrada entre el primer y el tercer día de vida (Shi et al., 1999). La preferencia por las palabras léxicas podría deberse a que tienden a ser más largas, tener más vocales completas y tener una estructura silábica más compleja que las palabras gramaticales; además podrían ser más familiares, pues las palabras que ocurren aisladamente en el habla dirigida al bebé son casi todas léxicas.

Respecto a la capacidad para discriminar los límites de las palabras, se encontró, usando el HASP, que los recién nacidos de 3 días están en capacidad de distinguir entre estímulos acústicos que corresponden a una parte de palabra y otros que corresponden al límite entre 2 palabras, siendo los 2 tipos de estímulos idénticos en cuanto a sus fonemas (Christophe, Dupoux, Bertoncini y Mehler, 1994). En este estudio se usaron estímulos acústicos bisilábicos que consistían en una parte de una palabra en francés (como /mati/ de mathématicien) y estímulos acústicos bisilábicos que consistían en el límite entre 2 palabras en francés (la última sílaba de una y la primera de otra; como /mati/ de panorama typique).

La extracción de los estímulos se realizó con un editor de sonido, a partir de vocablos "portadores", en frases "portadoras", pronunciadas por una hablante nativa de francés. Como un control experimental, los estímulos usados con los recién nacidos fueron además identificados correctamente por adultos hablantes nativos del francés, en una tarea de clasificación, como pertenecientes a la categoría de límite entre palabras o de parte de palabra. Los resultados del experimento indican que la duración de la última vocal y de la primera consonante de una palabra pueden ser indicios fiables del límite entre esta y otra palabra. En el caso específico del francés, la discriminación pudo deberse al acento final de las palabras, común en esa lengua (los estímulos parte de palabra no tendrían acento, mientras que los estímulos límite entre palabras lo tendrían al comienzo). Desde luego, esto no sucedería en otros idiomas (como el español) en los que el acento puede caer en distintas sílabas de las palabras.

No obstante, a pesar de la capacidad temprana para distinguir partes de palabras de límites entre palabras, no es sino hacia los 7 meses y medio que los bebés son capaces de segmentar la señal del habla en sus palabras constituyentes (Jusczyk y Aslin, 1995). Se llegó a esta conclusión por medio de una serie de experimentos realizados mediante el procedimiento de preferencia de giro de cabeza (PPGC) (c.f. Jusczyk, Cutler y Redanz, 1993), que sirvió para familiarizar a bebés estadounidenses de 7 meses y medio (promedio) con 4 palabras monosilábicas en inglés (bike, dog, feet y cup). A continuación se presentaron conjuntos de 6 frases en audio, proferidos por una hablante nativa, unos que contenían las palabras presentadas en la etapa de familiarización, y otros que no.

Los participantes del estudio prestaron más atención a las frases que contenían las palabras presentadas en la fase de familiarización que a las que no las contenían, evidenciando así que podían detectar las palabras que les eran familiares. Al repetir el procedimiento con bebés estadounidenses de 6 meses (promedio) no se encontró evidencia de la detección de las palabras.

Los estudios de este tipo en otros idiomas, como alemán y francés, indican que al igual que en el inglés, entre los 6 y los 8 meses aproximadamente, los bebés pueden segmentar las palabras en la señal del habla; aunque en el caso específico del inglés se ha encontrado que a los 7 meses y medio los bebés pueden segmentar palabras trocaicas, pero solo hasta los 10 meses y medio pueden segmentar las yámbicas (Höhle, Bijeljac-Babic, Herold, Weissenborn y Nazzi, 2009) (en palabras de 2 sílabas el patrón trocaico consiste en que la primera sílaba sea fuerte y la segunda suave, por ejemplo, prado, mientras que el patrón yámbico consiste en la situación inversa, por ejemplo, pastor; Mehler, Nespor y Peña, 2008).

Discriminación prosódica e interidiomática

En cuanto a la capacidad para discriminar la entonación en el habla, se ha encontrado que hacia las 68 h de vida, los recién nacidos ya están en capacidad de discriminar entre distintos contornos tonales de palabras que no pertenecen a su lengua materna (Nazzi, Floccia y Bertoncini, 1998). En este trabajo se evaluaron recién nacidos franceses de familias monolingües mediante el HASP. El procedimiento consistió en la presentación de 2 listas de 24 palabras bisilábicas en japonés fonológicamente equivalentes, que tenían un contorno tonal ascendente o uno descendente.

Los resultados del experimento evidenciaron que los recién nacidos (en este caso de 68 h de vida) tienen la habilidad de distinguir entre los 2 tipos de contorno (ascendentedescendente). Los autores del estudio estiman que al ser los participantes del experimento provenientes de hogares monolingües franceses, y los estímulos provenientes del idioma japonés, la discriminación no pudo haber estado asociada con exposiciones al habla prenatales o posnatales tempranas, sino que más bien indica la existencia de un repertorio universal de habilidades lingüísticas. Sin embargo, existe evidencia contrastante que indica que los bebés japoneses solo empiezan a percibir la diferencia ascendente-descendente en palabras bisilábicas en su propio idioma en algún momento entre los 6 y los 8 meses de edad (Butler, Frota y Vigário, 2012).

Respecto a la entonación en el orden del discurso, se sabe que hacia el primer mes de vida, los bebés prefieren la voz materna a la voz de un extraño, siempre y cuando la madre hable con una entonación natural (Mehler, Bertoncini, Barrière y Jassik-Cerschenfeld, 1978). En este trabajo se establecieron 2 condiciones: en la primera, de entonación natural, se pedía a la madre del bebé que hablara como si lo hiciera normalmente con él (que no estaba presente), acerca de temas cotidianos. Estaba prohibido usar el nombre del bebé o algún apelativo familiar. Si las madres se quedaban cortas de tema un investigador levantaba al bebé del otro lado del vidrio de la cabina en que se llevaba a cabo el experimento, por cuestiones de inspiración.

En la segunda condición, las madres leían, sin entonación, una por una palabras de un libro, empezando por la parte inferior derecha y yendo hacia la izquierda y hacia arriba línea por línea (es decir, leían al revés), eliminando así la entonación. Tanto el habla materna con entonación como la que no la tenía fueron grabadas y presentadas a los participantes del experimento contrastándolas con la voz de un extraño. Los autores del trabajo llevaron a cabo un procedimiento de reforzamiento diferencial (detallado en el artículo) que reveló un mayor interés de los participantes hacia el habla con entonación natural respecto a la voz del extraño, pero no un mayor interés hacia el habla sin entonación respecto a la voz del extraño.

Se ha descubierto también que los llantos de los recién nacidos (de entre 2 y 5 días de vida) presentan contornos tonales similares a los del idioma hablado en su entorno (Mampe, Friederici, Christophe y Wermke, 2009). En este trabajo se grabaron los llantos de 30 bebés franceses y se usaron llantos pregrabados de 30 bebés alemanes, todos en situaciones indoloras, para después analizarlos a partir de espectrogramas. El grupo francés produjo significativamente más llantos con un contorno melódico creciente (frecuencia y amplitud de onda ascendentes), mientras que el grupo alemán produjo significativamente más contornos decrecientes (frecuencia y amplitud de onda decrecientes); así, ambos grupos produjeron significativamente más las clases de melodías y contornos de intensidad que son típicos de la prosodia de sus lenguas nativas (en el francés la entonación se caracteriza por un aumento del tono hacia el final de varias clases de unidades prosódicas, como las palabras, excepto en la unidad final de una emisión que presenta un contorno de caída. La entonación en alemán usualmente tiene un contorno melódico descendente).

Los autores del estudio consideran que los recién nacidos no solo pudieron memorizar los patrones principales de entonación de sus respectivos contextos del habla, sino que además pudieron reproducirlos. En general, estos datos indican una influencia de la prosodia del habla circundante en la melodía del llanto de los recién nacidos (aumento y descenso del F0 respecto al paso del tiempo), probablemente debida al aprendizaje vocal, en gran medida el intrauterino.

En lo que concierne a la percepción temprana del acento léxico, existe evidencia que indica que a los 4 meses los bebés están en capacidad de discriminar patrones de acento característicos de su idioma materno, y responden de forma diferencial hacia ellos respecto a patrones de acento característicos de otro idioma (Friederici, Friedrich y Christophe, 2007). Los resultados de este estudio, hecho mediante potenciales evocados relacionados con eventos, indican que la experiencia con el idioma alemán y con el francés afecta de forma diferente a las respuestas del cerebro de los bebés hacia estímulos del habla.

Se llegó a esta conclusión al presentar a bebés alemanes y franceses de 4 meses promedio el estímulo auditivo baba acentuado en la primera o en la segunda sílaba (la acentuación se realizó alargando la sílaba correspondiente) y al analizar sus respuestas mediante una técnica de medición electrofisiológica conocida como Standard Oddball Mismatch Paradigm (detallada en el artículo). El análisis evidenció que todos los bebés estaban en capacidad de discriminar entre los 2 tipos de estímulos y presentaban una ventaja de procesamiento hacia la estructura rítmica típica de su lengua materna. Estos datos podrían implicar la existencia de representaciones mentales de formas de palabras tan temprano como a los 4 meses.

Existe, además, una preferencia por las palabras con patrón acentual trocaico respecto a las palabras con patrón acentual yámbico a los 6 meses en bebés pertenecientes a contextos en los que se habla alemán, pero no en bebés de la misma edad de contextos francófonos. Esta preferencia sería específica del lenguaje, y su edad de aparición en los bebés podría ser predicha en virtud de las propiedades rítmicas del idioma que se hable en su contexto (Höhle et al., 2009).

En concreto, valiéndose del PPGC y de estímulos auditivos consistentes en secuencias silábicas CVCV acentuadas en la primera o en la segunda silaba (C: consonante; V: vocal; por ejemplo, gaba), y proferidas por una hablante nativa alemana, se encontró una preferencia por las palabras trocaicas respecto a las yámbicas en bebés de 6 meses promedio de contextos de habla alemana, pero no en bebés de 4 meses promedio de estos mismos contextos. Aplicando el mismo procedimiento, y con los mismos estímulos, no se encontró, en bebés de 6 meses de contextos francófonos preferencia alguna por las palabras trocaicas o las yámbicas, aunque sí se constató que están en capacidad de diferenciarlas.

Höhle et al. (2009) también refieren la existencia de una preferencia por las palabras trocaicas en bebés de contextos de habla inglesa a los 7 meses, y explican la incongruencia de esa información con datos que indican que los bebés de contextos anglófonos presentan la preferencia por las palabras trocaicas solo hasta los 9 meses en términos de diferencias en la técnica y metodología aplicada en los estudios (c.f. Jusczyk et al., 1993). Las distintas edades de la aparición del sesgo por las palabras trocaicas en alemán (6 meses) y en inglés (7 meses), y el hecho de no haber encontrado el sesgo en bebés franceses de 6 meses responderían en últimas a diferencias en las estructuras rítmicas de los idiomas, y evidenciaría que el sesgo por las palabras trocaicas no es un universal lingüístico.

En cuanto a la habilidad de discriminación interidiomática, estudios realizados con el HASP indican que: entre los 2 y los 5 días de vida los recién nacidos están en capacidad de diferenciar entre idiomas desconocidos que pertenezcan a categorías rítmicas distintas, a partir únicamente de información prosódica (Ramus, Hauser, Miller, Morris y Mehler, 2000). (Los estudios con fetos mencionados anteriormente constataron la capacidad para diferenciar el idioma materno de otro con distinta isocronía).

La conservación de la información prosódica, y la eliminación de otras como la léxica y la fonológica, se logró al sintetizar computacionalmente (con el sintetizador MBROLA) las locuciones de los 2 idiomas que debían ser discriminados (japonés y holandés) y al aplicar un tipo de manipulación de la señal del habla conocida como Saltanaj (en esta manipulación los extractos de la voz conservan la duración de los fonemas y el F0, pero el inventario de fonemas se reduce a uno solo por manera de articulación; de esta manera, se eliminan las variaciones entre las voces de los distintos hablantes que profieren los estímulos, se suprime la información sintáctica y semántica, y se conserva la entonación y el ritmo).

Curiosamente, los participantes franceses del experimento solo pudieron diferenciar entre los 2 idiomas cuando las frases les fueron presentadas de forma sintetizada hacia adelante, pero no pudieron hacerlo cuando se les presentaron de forma natural (no sintetizadas) y proferidas por varios hablantes. Tampoco pudieron discriminar los 2 idiomas cuando las frases en holandés y en japonés fueron presentadas sintetizadas y a la inversa; lo cual indica que la diferenciación hecha por los participantes del estudio no depende de algún mecanismo de procesamiento acústico general, sino de uno que está relacionado directamente con el lenguaje.

Respecto a la manipulación digital de la señal del habla para presentarla a la inversa como estímulo experimental, debe mencionarse que es un recurso utilizado para contrastar el habla en sentido natural. Esto se debe a que, si bien la manipulación implica la modificación de varias propiedades fonológicas segmentarias, tanto el habla natural como el habla a la inversa tienen el mismo espectro y activan áreas cerebrales que registran transiciones auditivas temporales rápidas (Mehler et al., 2000). Ahora bien, aunque el habla a la inversa y el habla natural activan predominantemente el hemisferio izquierdo del cerebro, en bebés de 2 a 3 meses se genera activación en la corteza prefrontal derecha al oír el habla en sentido natural, pero no al oírla a la inversa; además, se presenta mayor activación bilateral en la parte posterior del surco superior temporal ante el habla a la inversa que ante el habla natural (Dehaene-Lambertz, Dehaene y Hertz-Pannier, 2002).

Volviendo al tema de la habilidad de discriminación interidiomática, y teniendo en cuenta que la prosodia incluye la entonación, el ritmo y el acento, no es claro cuál de estos 3 aspectos fue el principal responsable de la discriminación encontrada en el estudio de Ramus et al. (2000). Para aclarar esta cuestión, Ramus (2002) llevó a cabo una serie de experimentos de evaluación de la discriminación entre los 2 mismos idiomas (japonés y holandés), con participantes de la misma edad y procedencia (franceses de 2 a 5 días) y valiéndose igualmente del HASP.

En primer lugar, se presentó a los participantes frases en japonés y holandés en forma natural (no sintetizadas) y proferidas por varios hablantes, y al igual que en Ramus et al. (2000) no se observó discriminación entre ellas. En segundo lugar, se presentaron las mismas frases, pero sintetizadas con el Saltanaj (conservando la entonación y el ritmo) y se concluyó que podían diferenciarlas. En tercer lugar, se sintetizaron las frases del holandés y del japonés de forma tal que se igualaran los fonemas (con el Saltanaj), y además se generaran contornos tonales artificiales para las 2 lenguas, preservando así la estructura fonotáctica amplia y la estructura rítmica y prescindiendo de la entonación3. En esta condición, los recién nacidos fueron capaces de discriminar entre los 2 idiomas, pero el efecto fue más débil que cuando la entonación se mantenía; lo cual indica que la correlación temporal entre las señales de entonación y de ritmo facilita el procesamiento del habla.

Finalmente, al degradar los estímulos de los idiomas, de tal manera que solo quedara la información rítmica, no se encontró evidencia de la discriminación entre ellos (la degradación se realizó reemplazando los contornos originales de entonación por unos artificiales y mediante una técnica conocida como Sasasa, en la cual todas las consonantes se sintetizan como /s/ y todas las vocales como /a/). En consecuencia, aunque parece ser que el ritmo es la información fundamental para la discriminación temprana entre idiomas, puede resultar inútil tratar de aislar los efectos de las regularidades puramente rítmicas, pues su integración con otras señales correlacionadas puede ser la clave para un procesamiento exitoso de la voz.

No obstante, aunque los recién nacidos de 5 días pueden diferenciar entre 2 idiomas desconocidos pertenecientes a distintas categorías rítmicas, pero no pueden hacerlo cuando los 2 idiomas pertenecen a la misma categoría (Nazzi, Bertoncini y Mehler, 1998). En este estudio, valiéndose del HASP, de frases proferidas por varios hablantes monolingües de inglés, de holandés o de japonés, y de un filtro de bajo nivel con una frecuencia de corte de 400 Hz, se constató que recién nacidos franceses de 5 días pueden discriminar entre el inglés, que tiene un compás acentual, y el japonés, que tiene un compás de mora, pero no pueden hacerlo entre el inglés y el holandés ya que ambos tienen un compás acentual (el paso por el filtro de bajo nivel a 400 Hz se usa como una manera de conservar los aspectos prosódicos de la señal y quitar o atenuar la estructura fonética y fonotáctica; Jusczyk et al., 1993).

También se experimentó con diferentes combinaciones de frases en inglés, en holandés, en español y en italiano: solo se observó discriminación cuando las frases en inglés y en holandés (ambas de compás acentual) fueron contrastadas con frases en italiano y en español (ambos de compás silábico). Los resultados de estos experimentos indican que los recién nacidos de 5 días pueden diferenciar entre las 3 categorías rítmicas de los idiomas del mundo así no estén familiarizados con los idiomas que discriminan, pero no pueden diferenciar entre 2 idiomas cuando estos pertenecen a la misma categoría rítmica (aunque en este estudio no se puso a prueba la discriminación silábico-mora; lo cual se hizo en el estudio de Peña et al., 2010, referido más adelante). Consecuentemente, la información rítmica usada por los recién nacidos para discriminar idiomas sería específica de clases de lenguas y no de lenguas particulares.

Llegados los recién nacidos a los 2 meses, ya no pueden distinguir entre frases de 2 idiomas desconocidos y de categorías rítmicas diferentes entre sí (Mehler, Jusczyk, Lambertz, Halsted, Bertoncini, y Amiel-Tison, 1988). A estas conclusiones se llegó mediante el HASP y varios experimentos con estímulos del habla en inglés, en francés, en ruso o en italiano, presentados a bebés de 2 meses de familias angloparlantes monolingües, quienes llegaron a diferenciar el inglés del italiano (distinta isocronía) pero no el ruso del francés (distinta isocronía). Teniendo en cuenta estos resultados, y que se ha encontrado que recién nacidos de 5 días pueden diferenciar entre frases de 2 idiomas desconocidos y de distinta isocronía (como se discutió anteriormente), se ha propuesto que durante los 2 primeros meses de vida se genera un ajuste perceptivo a la lengua materna que modifica la forma en que se procesan los estímulos del habla (Mehler et al., 2000; Quartz y Sejnowsky, 1997).

Sin embargo, existe evidencia que indica que bebés de 5 meses sí están en capacidad de discriminar entre 2 idiomas desconocidos y de categorías rítmicas diferentes (Nazzi et al., 2000). En esta investigación, realizada con el PPGC, se concluyó que bebés estadounidenses de 5 meses tienen la habilidad para diferenciar idiomas desconocidos y con distinto ritmo (japonés e italiano). Respecto a la evidencia que contradice estos datos (bebés estadounidenses, 2 meses, no discriminan ruso y francés), arrojada por el estudio de Mehler et al. (1988) Nazzi et al. afirman que se hicieron análisis posteriores que llevaron a la reinterpretación de los datos (del estudio de Mehler et al.), pero admiten que la conclusión específica con respecto a la discriminación de idiomas desconocidos de distinta categoría rítmica a los 2 meses no se modificó. Además, refieren experimentos en los que bebés ingleses de 2 meses tampoco pudieron discriminar entre 2 lenguas con distinta isocronía y que les son desconocidas (japonés-francés). Así las cosas, se sabe con claridad que a los 5 días los recién nacidos perciben la diferencia entre 2 lenguas desconocidas de distinto ritmo, pero no se sabe con certeza a qué edad se pierde esta capacidad.

Acerca de la habilidad para diferenciar idiomas con la misma isocronía, un estudio de Bosch y Sebastián-Gallés (1997) reveló que a los 4 meses los bebés tienen la capacidad de distinguir entre su idioma materno y otro que tenga el mismo tipo de ritmo. En este estudio se usó el procedimiento de orientación visual con medida de tiempo de reacción (c.f. Gout, Christophe y Dupoux, 2002), aplicado a bebés de 4 meses pertenecientes a familias monolingües hablantes del catalán, monolingües hablantes del español o bilingües hablantes de catalán y de español. Los estímulos consistían en fragmentos digitalizados de una narración para niños, hecha por una hablante políglota en catalán, español o inglés. Los participantes del estudio fueron puestos a prueba con distintas combinaciones de estímulos, evidenciándose que los provenientes de familias monolingüescatalán podían diferenciar su idioma materno del español y los provenientes de familias monolingües-español podían diferenciar su idioma nativo del catalán (si bien la clasificación isocrónica del catalán no es del todo clara, se entiende que pertenece a las lenguas de acento silábico; Ramus, Dupoux y Mehler, 2003).

De acuerdo con estos resultados, hacia los 4 meses se produce un cambio importante en las capacidades perceptivas relacionadas con el habla que permite distinguir entre lenguas de la misma categoría rítmica, debido quizás a la mayor experiencia con el idioma que se habla en el contexto de crecimiento. A este respecto, vale la pena considerar que Nazzi et al., 2000 encontraron que bebés estadounidenses de 5 meses pueden distinguir entre el inglés británico, que es una variación de su idioma materno, y un idioma con el mismo tipo de ritmo: el holandés; e incluso pueden realizar la distinción, más fina, entre el inglés británico y su lengua materna.

En cuanto a los factores que permiten la diferenciación entre el idioma materno y otro que pertenezca a la misma categoría isocrónica, si bien se requiere de aproximadamente 4 meses de exposición extrauterina al habla nativa, sin un cierto nivel de maduración cerebral la diferenciación no es posible (Peña et al., 2010). Los autores de este experimento se sirvieron de una técnica de potenciales relacionados con eventos, en escucha pasiva, aplicada a un grupo de bebés prematuros (nacidos hacia las 28 semanas de edad gestacional; casi 3 meses antes de lo esperado) y a otro de bebés a término.

El grupo de bebés prematuros se dividió en 2 subgrupos: a uno se le realizó la medición de potenciales después de 6 meses del nacimiento (grupo 1A) y al otro después de 9 (grupo 1B). En el momento de la medición, todos los bebés prematuros habían sido expuestos sistemáticamente al habla natural de su lugar de origen por más de 4 meses y medio (fuera de la incubadora). En los bebés a término, la medición de los potenciales se realizó a un subgrupo hacia los 3 meses de vida (grupo 2A) y al otro hacia los 6 (grupo 2B).

Los estímulos experimentales consistían en emisiones lingüísticas pertenecientes al idioma materno de los participantes del estudio (español), y a un idioma de la misma categoría rítmica (italiano) o a uno de categoría rítmica distinta (japonés), en combinaciones específicas. Se observaron activaciones cerebrales que indicaron diferenciación entre la lengua materna y otra perteneciente a la misma isocronía solo en los grupos 1B y 2B. Así, como se esperaba, el grupo 2A no logró la diferenciación al no haber completado los 4 meses de exposición extrauterina al habla. El grupo 1A, aun habiendo sido expuesto al input lingüístico por más de 4 meses fuera del vientre materno, al no haber alcanzado la maduración cerebral típica de un bebé a término de 4 meses, no pudo realizar la discriminación.

Discriminación fonológica y fonotáctica

Sobre la capacidad para percibir las variaciones de las unidades fonológicas mínimas de la lengua, los fonemas, se sabe que en el primer y en el cuarto mes de vida los bebés pueden discriminar la señal acústica subyacente de las consonantes /b/ y /p/, tomando como referencia la misma distinción fonológica hecha por adultos angloparlantes (Eimas, Siqueland, Jusczyk y Vigorito, 1971). (Recuérdese que los fetos que están a punto de nacer pueden ya discriminar algunas sílabas de su lengua materna; ver el apartado de percepción intrauterina).

Esta señal acústica en particular se caracteriza por la relación del VOT del primer formante de los fonemas correspondientes a tales consonantes con los VOT del segundo y tercer formantes4. En este estudio, la aplicación del HASP y la presentación de una serie de variaciones computacionales de las consonantes /b/ y /p/ permitieron constatar que los participantes (de los cuales no se especifica la procedencia) percibían como novedoso el cambio entre los estímulos pertenecientes a categorías fonológicas diferentes (/b/-/p/), establecidas de acuerdo con la percepción de adultos, respecto al cambio entre los estímulos que pertenecían a la misma categoría (/b/-/b/ o /p/-/p/). Estos resultados indican que los bebés de un mes, y los de 4, no solo son sensibles a los sonidos lingüísticos y pueden discriminarlos, sino que además, los perciben en el continuo del habla de una forma categórica similar a la forma en que los perciben los adultos5.

También se ha encontrado evidencia de la capacidad temprana para discriminar categóricamente diversos fonemas de idiomas desconocidos, y de la pérdida de esta capacidad en la medida en que aumenta la habilidad para diferenciar los de la lengua materna, gracias a un estudio realizado con participantes adultos y con bebés por Werker y Tees (1984). Para llevar a cabo dicha investigación, los bebés se pusieron a prueba con el paradigma de giro de cabeza condicionado (c.f. Berko y Bernstein, 1998) y los adultos con una variación de dicho paradigma en la cual la presión de un botón reemplazaba al giro de cabeza como respuesta conductual de diferenciación.

En primera instancia, se compararon adultos anglófonos, adultos hablantes del thompson (un tipo de lengua indígena hablada en ciertas partes de Canadá) y bebés de 6 meses promedio de familias anglohablantes en cuanto a su percepción de un contraste del thompson entre consonantes posteriores que no existe en el inglés. Los adultos angloparlantes no pudieron discriminar los contrastes, mientras que los bebés de familias hablantes del inglés (de 6 meses) y los adultos hablantes del thompson, sí.

Posteriormente, se expuso a los mismos contrastes entre consonantes del thompson, y a otros contrastes de la lengua hindi, a bebés de entre 6 y 8 meses, y 10 meses y 1 año, de familias anglófonas. Los resultados mostraron que los bebés de entre 6 y 8 meses fueron capaces de diferenciar todos los contrastes, mientras que los bebés de entre 10 y 12 meses no pudieron hacerlo.

Estos resultados, sumados a las conclusiones alcanzadas en diversos estudios (c.f. Doupe y Kuhl, 1999), indican que los bebés menores de 10 meses pueden diferenciar prácticamente todos los fonemas usados en los diversos idiomas naturales sin haber tenido experiencia previa con ellos, y que existe una pérdida de esta capacidad en función de la experiencia con la lengua materna hacia el final del primer año de vida. De acuerdo con Petitto (2005) es cerca de los 4 meses que los bebés demuestran la capacidad para discriminar categóricamente todos los fonemas de los idiomas del mundo, y es cerca de los 14 que la pierden en la medida en que adquieren una sensibilidad creciente hacia los fonemas de su idioma nativo.

Este fenómeno, junto con la aparición de preferencias de escucha por las palabras que siguen patrones de acentuación frecuentes en la lengua nativa hacia los 9 meses (ver apartado de discriminación prosódica), y la sensibilidad encontrada también a los 9 meses hacia la frecuencia de aparición de patrones fonotácticos en palabras del idioma materno (se comenta más adelante), indican una reorganización de las capacidades perceptuales cerca del primer año de vida en función de un reconocimiento más efectivo de las palabras del idioma que se habla en el contexto en que se desarrolla el infante.

Respecto al lenguaje de señas, se creó una situación experimental en la cual se presentó a bebés con capacidad auditiva normal, de familias monolingües, imágenes de manos en movimiento correspondientes a unidades silábicas de la lengua de signos estadounidense (ASL), a la cual nunca habían sido expuestos. El estudio reveló que (al igual que en el habla) los bebés oyentes pueden discriminar las unidades silábicas manuales del ASL hacia los 4 meses, pero ya no pueden hacerlo hacia los 14 (Petitto, 2005).

También se sabe que, por lo menos desde los 3 meses y hasta los 5, al escuchar vocales simples durante un corto tiempo los bebés alteran sus vocalizaciones para aproximarse a los sonidos que escuchan (Kuhl y Meltzoff, 1986). En este estudio se analizó el cambio en el desarrollo de las vocalizaciones de bebés de 12, 16 y 20 semanas, en respuesta a las emisiones de vocales proferidas por un adulto, y se puso a prueba la imitación vocal. Para tal fin, se grabaron 3 estímulos vocálicos, /a/, /i/, /u/, que fueron presentados a los bebés mediante una máquina de vídeo alrededor de 10 minutos por vocal (una mujer pronunciaba las vocales).

Los bebés estudiados, al escuchar y observar una vocal en particular, producían vocalizaciones que se aproximaban a ella (las vocalizaciones fueron analizadas mediante espectrogramas y por fonetistas expertos que las transcribieron). Los autores comentan que parece ser más importante oír la voz que ver el rostro que la pronuncia a la hora de imitar los sonidos vocálicos, por lo menos en las edades abarcadas en este trabajo.

Sobre la relación entre la percepción de los fonemas y su pronunciación, se encontró que entre las 18 y las 20 semanas de vida los bebés observan durante más tiempo un rostro cuya gesticulación es coherente con la pronunciación de una vocal que suena al mismo tiempo, que otro rostro cuya gesticulación es incoherente con tal pronunciación (Kuhl y Meltzoff, 1982). En este experimento se mostraron a los bebés 2 imágenes filmadas, una al lado de la otra y al mismo tiempo, del rostro de una hablante femenina articulando repetidamente 2 vocales distintas: en un extremo de la pantalla articulando la /a/ y en el otro la /i/. La señal de audio correspondiente a la repetición del sonido de una de las 2 vocales proferidas en el vídeo se presentaba al mismo tiempo mediante un altoparlante ubicado justo detrás de la pantalla en la que estaban las imágenes y a la mitad entre ellas.

Al realizar combinaciones de grupos experimentales, cambiando las posiciones de los rostros que articulaban las vocales (derecha o izquierda de la pantalla) y la presentación en audio de la /a/ o de la /i/, se observó que los bebés fijaban significativamente más tiempo la mirada en el rostro compatible con el sonido que estaban escuchando, con respecto al rostro que profería una sílaba distinta a la escuchada. Estos resultados indican que la asociación entre la percepción de los movimientos de la cara y el sonido del habla pueden reflejar una inherente condición de los humanos para ligar estas características en una tarea perceptual bimodal propia del lenguaje.

En cuanto a la discriminación de las restricciones que posee la organización de las unidades fonológicas en el habla, se sabe que a los 9 meses los bebés demuestran sensibilidad a la frecuencia de aparición de patrones fonotácticos en palabras de su idioma materno (Jusczyk, Luce y Charles-Luce, 1994). Para llevar a cabo este trabajo, un fonetista entrenado grabó en audio 2 tipos de listas de palabras monosilábicas en inglés, que fueron presentadas usando el PPGC. Un tipo de listas contenía ítems con patrones fonológicos que se encuentran frecuentemente en el idioma inglés, mientras que el otro tipo contenía patrones fonológicos que se hallan de manera infrecuente en el inglés pero que son gramaticalmente válidos. La frecuencia de aparición de ambos tipos de patrones en la lengua inglesa se determinó de acuerdo con el análisis estadístico de un corpus en línea de 20.000 transcripciones fonológicas.

Al aplicar el procedimiento, bebés estadounidenses de 9 meses, pero no otros de 6 meses de la misma procedencia, presentaron respuestas conductuales distintas al serles presentadas las listas de palabras con patrones fonológicos habituales en el inglés respecto a la presentación de las palabras con patrones infrecuentes.

Además de la discriminación, se ha encontrado que hacia los 9 meses los bebés prefieren escuchar palabras poco frecuentes que respetan patrones fonológicos y fonotácticos comunes en su lengua materna respecto a palabras poco frecuentes que los infringen (Jusczyk, Friederici, Wessels, Svenkerud y Jusczyk, 1993). En este estudio una hablante bilingüe inglés-holandés grabó listas de palabras de 2 y de 3 sílabas en holandés, infrecuentes y referidas a conceptos abstractos, y listas equivalentes en inglés; de tal manera que las listas de palabras en inglés contuvieran patrones de sonidos ilegales o inexistentes en holandés, y viceversa.

Haciendo uso del PPGC se observó que los bebés estadounidenses de 9 meses (promedio), pero no los de 6 (promedio), escuchaban significativamente más tiempo las palabras con patrones de sonido comunes en su idioma materno respecto a las palabras con patrones de sonido comunes en el idioma extranjero, e inexistentes o ilegales en su idioma. Los bebés holandeses de 9 meses también escucharon significativamente más tiempo las palabras con patrones de sonido comunes en su idioma materno respecto a las palabras con patrones de sonido comunes en el idioma extranjero, pero inexistentes o ilegales en su idioma.

Estos resultados evidencian que los bebés de 9 meses prefieren las palabras que respetan patrones fonotácticos de su lengua materna respecto a las que los infringen, pero no debido a la familiaridad que tienen con ellas (pues las palabras usadas como estímulos en este estudio eran infrecuentes y referidas a conceptos abstractos), sino más bien a características fonológicas y fonotácticas de la señal. También puede descartarse que la preferencia responda a condiciones prosódicas de las palabras, pues cuando los estímulos correspondientes a ambos idiomas se hicieron pasar por un filtro de bajo nivel a 400 Hz no se observó preferencia alguna.

Reconocimiento de regularidades de distribución entre elementos de la señal del habla

Se sabe también sobre las habilidades tempranas de percepción que recién nacidos de 3 días de vida promedio son capaces de detectar regularidades estructurales simples que implican repeticiones entre elementos adyacentes en la señal del habla (Gervain, Macagno, Cogoi, Peña y Mehler, 2008). Estas conclusiones fueron alcanzadas mediante la aplicación de una técnica de neuroimagen al tiempo que se presentaba a recién nacidos de familias hablantes del italiano secuencias silábicas con repeticiones adyacentes tipo ABB (por ejemplo, mubaba) y secuencias aleatorias de control tipo ABC (por ejemplo, mubage). Se observó mayor activación en áreas temporales y frontales del hemisferio izquierdo ante la presentación de las secuencias con repeticiones. En segunda instancia, se presentaron secuencias silábicas con repeticiones no adyacentes tipo ABA (por ejemplo, bamuba) y secuencias de control tipo ABC, no encontrándose diferencias significativas en la activación cerebral resultante ante los 2 tipos de secuencias.

Estos datos indican la existencia de una habilidad perceptual en los recién nacidos que podría facilitar el desarrollo posterior del lenguaje mediante la identificación de repeticiones en los elementos de la señal del habla. La función de un mecanismo de este tipo podría estar relacionada con las repeticiones inmediatas e idénticas de palabras y frases, comunes en el habla dirigida al bebé, o con el uso que en distintos idiomas comúnmente hacen los niños de palabras con duplicados totales o parciales de sílabas, cuya prominencia perceptual podría ayudar a descubrir y aprender palabras más complejas (por ejemplo, papi, mami, en español; daddy, baby, en inglés; tata, baba, en francés).

Pero los menores de un año no solo logran detectar en el habla regularidades de distribución, que implican repeticiones entre sus elementos, sino que además logran abstraer esta información y generalizarla a estímulos novedosos. En específico: a los 7 meses los bebés son capaces de representar, extraer y generalizar reglas algebraicas abstractas presentes en la señal del habla (Marcus, Vijayan, Bandi Rao y Vishton, 1999).

En esta investigación se usó el PPGC y una gramática artificial, creada de tal forma que la discriminación hecha por los participantes no pudiese responder a un mecanismo de conteo ni al rastreo de información estadística, sino específicamente a la detección de las reglas algebraicas. Los investigadores dividieron a los participantes en 2 grupos y a ambos les presentaron, en la fase de familiarización, palabras trisilábicas sin sentido en audio sintetizado: al grupo 1, palabras que seguían una regla ABA (por ejemplo, gatiga) y al grupo 2, palabras que seguían una regla ABB (por ejemplo, gatiti). En la fase de prueba se presentó a cada grupo palabras nuevas que seguían la misma regla de la fase de familiarización y palabras nuevas que la rompían (pero que seguían la regla asignada en la familiarización al grupo contrario).

Los bebés, en general, prestaron más atención a las palabras que no seguían la regla que a las que la seguían; lo cual indica que a los 7 meses se pueden detectar reglas estructurales simples y se pueden generalizar en estímulos desconocidos (pues los estímulos discriminados en la fase de prueba no eran conocidos con anterioridad por los participantes del estudio).

Una vez reconocida alguna de las regularidades de distribución de los elementos del habla, en particular una regularidad de tipo estadístico, se puede usar esta información para detectar las palabras que la constituyen (al habla). A este respecto, se ha encontrado, que tras un corto período de aprendizaje los bebés de 8 meses pueden valerse de información estadística contenida en el habla fluida para identificar sus palabras constituyentes (Saffran, Aslin y Newport, 1996). En este caso, es importante recordar que es hacia los 7 meses y medio que los bebés pueden segmentar las palabras en la señal del habla (véase la sección de clases y límites de palabras).

Los participantes de este estudio, realizado mediante el PPGC, fueron familiarizados durante 2 minutos con una corriente de habla continua consistente en 4 palabras trisilábicas sin sentido (bidaku, padoti, tupiro y golabu) sintetizadas en una voz monótona femenina y repetidas en orden aleatorio. La señal continua resultante de la unión de los 4 estímulos (por ejemplo, golabubidakupadotigolabu) no tenía indicaciones acústicas de los límites entre palabras (pausas, diferencias de acentos o duración), como suele ocurrir en el habla natural. Las únicas indicaciones de los límites entre palabras eran las probabilidades transicionales entre pares de sílabas, establecidas por los investigadores (probabilidades transicionales: TPS6). Así, si las TPS correspondían a pares de sílabas dentro de alguna palabra (como bida, en bidaku) eran de 1,0 en todos los casos; si correspondían a algún límite entre palabras (como kupa, en bidaku padoti), eran de 0,33 en todos los casos.

En la etapa de prueba se presentaron las palabras sin sentido usadas para constituir la señal con la cual se había familiarizado a los participantes (tupiro, golabu...), contrastadas con otros estímulos sonoros correspondientes a uniones entre partes de esas mismas palabras (construidos a partir de la silaba final de 1 y las 2 primeras de otra; por ejemplo, rogola y kupado). De esta forma, los estímulos correspondientes a uniones entre partes de palabras contenían secuencias trisilábicas que ya habían sido oídas en la fase de la familiarización, pero que no correspondían a palabras completas. Juzgar en la fase de prueba las uniones entre partes de palabras como estímulos novedosos respecto a las palabras completas requeriría haber aprendido estas últimas con una especificidad tal que las secuencias que cruzaban los límites entre ellas fueran relativamente poco familiares (lo cual solo podía hacerse valiéndose de los TPs).

Se observó que los participantes del estudio prestaban más atención a las secuencias de sonidos pertenecientes a uniones entre partes de palabras que a las pertenecientes a palabras completas. Estos resultados indican que los bebés de 8 meses tienen acceso a un cierto mecanismo para computar las propiedades estadísticas del input lingüístico. Este sería un mecanismo de aprendizaje dependiente de la experiencia, que serviría para delimitar palabras y entraría en funcionamiento después de una breve exposición a los estímulos del habla; aunque podría no ser netamente lingüístico y funcionar también en otros dominios de estímulos. Los datos resultantes de este estudio también implican que la experiencia y el aprendizaje juegan un rol más importante en la adquisición del lenguaje de lo que admiten las corrientes racionalistas.

En cuanto a las restricciones en la percepción de las regularidades de distribución en el lenguaje hablado, y partiendo de evidencia que indica que las vocales y las consonantes juegan distintos roles en el procesamiento del habla7, se encontró que bebés de 11 meses pueden detectar una regularidad estructural en la señal lingüística y generalizar la información obtenida a estímulos novedosos; pero solo pueden hacerlo cuando la regularidad se da entre vocales, no cuando se da entre consonantes (Pons y Toro, 2010). En este estudio, que se valió del PPGC, se familiarizó a niños de 11 meses promedio, de familias hispanohablantes con series de palabras trisilábicas sin sentido, en la forma CVCVCV. En estas series, todas las vocales (condición 1), o todas las consonantes (condición 2), estaban organizadas de acuerdo con la regla AAB (primera y segunda vocales o consonantes iguales, y tercera diferente; por ejemplo, tolode en la condición 1 y dadeno en la 2).

Durante la fase de prueba, se presentó a los participantes palabras que no habían sido mostradas con anterioridad y que seguían o no la regla AAB: en la condición 1, la regla se refería a las vocales (como talabo, que sigue la regla AAB, y dutone, que no la sigue), y en la condición 2, a las consonantes (como dedulo, que sigue la regla AAB, y dutani, que no la sigue). Los participantes del estudio prestaron más atención a los estímulos que rompían la regla que a los que la seguían cuando esta se aplicaba a las vocales. No se observaron diferencias significativas en la atención de los participantes cuando la regla se aplicaba a las consonantes. Estos resultados indican que los bebés de 11 meses pueden extraer una regla sintáctica simple de la señal del habla y generalizarla; pero solo cuando se da entre vocales, no cuando se da entre consonantes.

Ya al acercarse al primer año de vida, los bebés pueden aprender rápidamente estructuras gramaticales complejas que mantienen relaciones estadísticas de dependencia predictiva, pero no pueden aprender estructuras gramaticales que no mantienen tales relaciones8 (Saffran, Hauser, Seibel, Kapfhamer, Tsao y Cushman, 2008). En este trabajo, en el cual se utilizó el PPGC, los estímulos consistieron en frases generadas a partir de 2 gramáticas artificiales. Cada elemento de las gramáticas representaba un ítem de una clase de palabras sin sentido (la pertenencia a cada clase solo se evidenciaba en las regularidades estadísticas de aparición de las palabras en las frases, tratando de imitar así el comportamiento de las palabras de distintas categorías gramaticales en el habla natural). Un tipo de gramática poseía dependencias predictivas entre clases de palabras (LDP), y otro no (LSDP). En la LDP, por ejemplo, si un tipo de palabra D estaba presente, debía estar precedida por un tipo de palabra A; sin embargo, la aparición de palabras tipo A podía darse sola. De esta forma, la aparición de palabras tipo A no predecía la aparición de una palabra tipo D, pero sí a la inversa. La LSDP no tenía este tipo de dependencias. Dos experimentos, que variaron principalmente en la cantidad de elementos por clase de palabra, fueron hechos con bebés de 1 año en promedio (en el primero solo había un ítem por categoría, en el segundo, varios; tratando en este último caso de simular las diferentes frecuencias de aparición de las palabras léxicas y las gramaticales en los lenguajes naturales).

En la LDP se observó una discriminación significativa por parte de los participantes entre frases gramaticales y no gramaticales, pero no en la LSDP, tanto en la condición que tenía un solo ítem por clase de palabra como en la que contenía varios ítems por clase. Se concluyó entonces que los bebés de 1 año pueden aprender rápidamente (en cerca de 5 minutos) gramáticas que comprenden dependencias predictivas similares a las que se encuentran en los lenguajes naturales, pero no pueden aprender gramáticas similares que incluyen estructuras disímiles a las de los lenguajes naturales.

Discusión

Como puede verse, el desarrollo ontogenético de la capacidad lingüística en el humano llega a recorrer un largo camino antes de la aparición de las primeras palabras habladas —o de las primeras señas—. Un proceso que aparenta ser tan natural y sencillo en la vida cotidiana esconde tras de sí una serie de capacidades que evolucionan e interaccionan de diversas y complejas maneras. Sin embargo, a pesar de los grandes avances que se han hecho en cuanto al conocimiento sobre la facultad humana del lenguaje, los científicos de diversas orientaciones no logran llegar a un acuerdo acerca de la forma específica en que se da su adquisición, la relación entre adquisición y producción, y la forma en que el lenguaje evolucionó filogenéticamente.

Un caso particular de este desacuerdo se hace evidente cuando las conclusiones de los trabajos que encuentran capacidades tempranas de cierta complejidad respecto al habla son interpretadas de acuerdo con explicaciones de tipo racionalista que implican la existencia de conocimiento innato —para disgusto de muchos científicos que no comparten esta visión—, debido en gran medida a la contundente influencia de las ideas expuestas por Noam Chomsky en la lingüística y psicolingüística modernas.

Este mismo hecho ha llevado, entre otras cosas, a que el estudio de la semántica, un aspecto muy importante de la composición del lenguaje, haya sido cubierto por un velo de misterio, y a que se tome por un hecho sin mayor evidencia empírica que los conceptos simplemente están allí desde el nacimiento (c.f. Barón, Müller y Labos, 2013).

Otros aspectos relacionados con la adquisición del habla y del lenguaje de señas, como el componente pragmático de las interacciones lingüísticas y el papel del discurso en las relaciones sociales complejas, no gozan actualmente de la misma consideración que los científicos dan al tema de la percepción del habla, a la hora de repartir los recursos y los esfuerzos de las investigaciones.

En resumen, el lenguaje es una herramienta asombrosa que potencia las capacidades cognitivas del humano de tal manera que no hay otro animal que se le asemeje. El conocimiento sobre sus condiciones y su funcionamiento ha avanzado notablemente en los últimos 50 años, y los métodos empíricos para su estudio se han mejorado y diversificado significativamente.

La percepción temprana del habla es una de las áreas respecto a las cuales se ha logrado alcanzar más conocimiento. No obstante, la interpretación de los datos obtenidos mediante la experimentación en esta área genera actualmente polémica en la academia, y existen además otros aspectos lingüísticos que requieren también ser estudiados en profundidad.

Financiación

Este artículo es un resultado de la investigación titulada "Discriminación de los contornos de entonación declarativo e interrogativo en ratas", financiada por la Fundación Universitaria Los Libertadores, y apoyada por el Grupo de Estudios en Ciencias del Comportamiento y el Laboratorio de Conducta Animal de la Konrad Lorenz Fundación Universitaria.


1 La isocronía es la división de los idiomas a partir de sus características rítmicas; específicamente a partir de sus unidades acústicas de duración constante y repetición regular (Ramus, 1999). Tradicionalmente, se han considerado 3 tipos de isocronía de acuerdo con el elemento rítmico esencial presente en cada idioma: lenguas de compás silábico, de compás acentual y de compás de mora (Gervain y Mehler, 2010; Toledo, 2009). Sobre los estudios que indican la inexistencia de la isocronía, véase Peña, Pittaluga y Mehler (2010). Sobre la correlación de las categorías isocrónicas con componentes del habla, véase Ramus, Nespor y Mehler (1999).

2 La distinción entre palabras léxicas y gramaticales se encuentra en general en todos los idiomas naturales. Las palabras léxicas o de contenido poseen significado e incluyen ítems de clase abierta con alta carga semántica; suelen ser sustantivos, verbos, adjetivos o adverbios. Las palabras gramaticales o de función contribuyen primordialmente a las relaciones estructurales y trasmiten significado solo al estar relacionadas con palabras léxicas en un enunciado. Entre ellas se encuentran auxiliares, preposiciones, posposiciones y partículas modales (Shi y Werker, 2001).

3 La estructura fonotáctica de un idioma implica una serie de restricciones en la ocurrencia de sonidos en las palabras y en las oraciones. Algunas combinaciones de sonidos ocurren solo en los límites entre palabras, otras solo dentro de las palabras, y otras simplemente no ocurren (Christophe et al., 1994).

4 El VOT, o tiempo de inicio de la sonoridad, es la sincronización de la vibración periódica de la laringe, debida al contacto del aire con las bandas vocales (fonación), respecto al comienzo de la sílaba (Doupe y Kuhl, 1999). Un formante es una frecuencia de resonancia en el tracto vocal que constituye los rasgos identificables de los sonidos del habla; la frecuencia fundamental (o formante 0, F0) es la más baja de estas frecuencias (Johnson, 2005).

5 El continuo (o espectro) del habla es un subespacio continuo y abstracto que contiene 2 fonemas o sílabas, y que está definido por algunas dimensiones relevantes para la discriminación entre estos (fonemas o sílabas). Este espacio contiene además una serie de posibles realizaciones (tokens), que según sus valores en rasgos distintivos pueden percibirse como uno u otro fonema (o sílaba) (cf. Johnson, 2005).

6 Las TPS son propiedades de la distribución de los elementos de los enunciados del habla, como la probabilidad de que una sílaba de tal forma siga a otra específica al final de una palabra o de una oración. Por ejemplo, en el enunciado El niño lanza piedras. El niño lanza miradas, la probabilidad transicional entre el y niño es de 1,0, pues en cada ocasión en que aparece la palabra el le sigue la palabra niño, mientras que entre lanza y piedras es de 0,5 ya que solo después de la mitad de las apariciones de la palabra lanza sigue la palabra piedras (Mehler et al., 2008).

7 Los adultos se valen preferentemente de la distribución de las consonantes en la señal del habla para delimitar las palabras, y de la distribución de las vocales para realizar generalizaciones a partir de regularidades estructurales simples (Bonatti, Peña, Nespor y Mehler, 2005; Toro, Nespor, Mehler y Bonatti, 2008).

8 En cuanto a las dependencias predictivas, se ha hecho notar que en la estructura de las oraciones algunas palabras pueden aparecer solas, como los sustantivos, pero otras suelen tener ciertos requerimientos, como un artículo, el cual necesita un complemento, usualmente un sustantivo. Esto implica que las apariciones de determinados tipos de palabras dependen de las apariciones de otro tipo de palabras, por lo cual se puede predecir que cuando aparezca una de un tipo, una del otro tipo también lo hará. Estas relaciones de dependencia predictiva entre categorías de palabras proveen información estadística que enfatiza elementos de las oraciones para quien adquiere el lenguaje. Sin embargo, las relaciones de dependencia predictiva, y su facilitación del aprendizaje de estructuras complejas, no parecen ser específicas del lenguaje (Saffran et al., 2008).


Recibido el 1 de octubre de 2012;

aceptado el 1 de noviembre de 2013

* Autor para correspondencia.

Correo electrónico:laescaladesol@gmail.com (L. Barón Birchenall).


Bibliografía

Barón, L., Müller, O. y Galindo, Ó. 2014. Métodos experimentales de estudio de la percepción temprana del habla. Revista Colombiana de Psicología, 23(1), 73-94.

Barón, L., Müller, O. y Labos, E. (2013). Los conceptos innatos en la obra de Chomsky: definición y propuesta de un método empírico para su estudio. Avances en Psicología Latinoamericana, 31, 324-343.

Berko, J. y Bernstein, N. (1998). "Language acquisition", en Berko, J. y Bernstein, N. (eds.). Psycholinguistics. Nueva York, NY: Harcourt. p. 347-408.

Berwick, R., Friederici, A., Chomsky, N. y Bolhuis, J. (2013). Evolution, brain, and the nature of language. Trends in Cognitive Sciences, 17, 89-98.

Bonatti, L., Peña, M., Nespor, M. y Mehler, J. (2005). Linguistic constraints on statistical computations: The role of consonants and vowels in continuous speech processing. Psychological Science, 16, 451-459.

Bosch, L. y Sebastián-Gallés, N. (1997). Native-language recognition abilities in 4-month-old infants from monolingual and bilingual environments. Cognition, 65, 33-69.

Butler, J., Frota, S. y Vigário, M. (2012). Infants' perception of intonation: Is it a statement or a question? Presented at the Fifth European Conference on Tone and Intonation, Oxford, Reino Unido.

Christophe, A., Dupoux, E., Bertoncini, J. y Mehler, J. (1994). Do infants perceive word boundaries? An empirical study of the bootstrapping of lexical acquisition. Journal of the Acoustical Society of America, 95, 1570-1580.

DeCasper, A. y Spence, M. (1986). Prenatal maternal speech influences newborns´ perception of speech sounds. Infant Behavior and Development, 9, 133-150.

Dehaene-Lambertz, G., Dehaene, S. y Hertz-Pannier, L. (2002). The functional neuroanatomy of speech perception in infants. Science, 298, 2013-2015.

Doupe, A. y Kuhl, P. (1999). Birdsong and human speech: Common themes and mechanisms. Annual Review of Neuroscience, 22, 567-631.

Eimas, P., Siqueland, E., Jusczyk, P. y Vigorito, J. (1971). Speech perception in infants. Science, 171, 303-306.

Friederici, A., Friedrich, M. y Christophe, A. (2007). Brain responses in 4-month-old infants are already language specific. Current Biology, 17, 1208-1211.

Gervain, J., Macagno, F., Cogoi, S., Peña, M. y Mehler, J. (2008). The neonate brain detects speech structure. Proceedings of the National Academy of Sciences, 105, 14222-14227.

Gervain, J. y Mehler, J. (2010). Speech perception and language acquisition in the first year of life. Annual Review of Psychology, 61, 191-218.

Gout A., Christophe, A. y Dupoux, E. (2002). Testing infants' discrimination with the orientation latency procedure. Infancy, 3, 249-259.

Guasti, M. (2002). Language acquisition: The growth of grammar. Cambridge, MA: MIT Press.

Höhle, B., Bijeljac-Babic, R., Herold, B., Weissenborn, J. y Nazzi, T. (2009). Language specific prosodic preferences during the first half year of life: Evidence from German and French infants. Infant Behavior and Development, 32, 262-274.

Holden, C. (2004). The origin of speech. Science, 303, 1316-1319.

Hykin, J., Moore, R., Duncan, K., Clare, S., Baker, S., Johnson, I., et al. (1999). Fetal brain activity demonstrated by functional magnetic resonance imaging. The Lancet, 354, 645-646.

Johnson, K. (2005). "Speaker normalization in speech perception", en Pisoni, D. y Remez, R. (eds.). Handbook of Speech Perception. Oxford: Blackwell. p. 363-389.

Jusczyk, P. y Aslin, R. (1995). Infants' detection of the sound patterns of words in fluent speech. Cognitive Psychology, 29, 1-23.

Jusczyk, P., Cutler, A. y Redanz, N. (1993). Infants' preference for the predominant stress patterns of English words. Child Development, 64, 675-687.

Jusczyk, P., Friederici, A., Wessels, J., Svenkerud, V. y Jusczyk, A. (1993). Infants' sensitivity to the sound pattern of native language words. Journal ofMemory and Language, 32, 402-420.

Jusczyk, P., Luce, P. y Charles-Luce, J. (1994). Infants' sensitivity to phonotactic patterns in the native language. Journal of Memory and Language, 33, 630-645.

Kisilevsky, B., Hains, S., Brown, C., Lee, C., Cowperthwaite, B., Stutzman, S., et al. (2009). Fetal sensitivity to properties of maternal speech and language. Infant Behavior and Development, 32, 59-71.

Kuhl, P. y Meltzoff, A. (1982). The bimodal perception of speech in infancy. Science, 218, 1138-1141.

Kuhl, P. y Meltzoff, A. (1996). Infant vocalizations in response to speech: vocal imitation and developmental change. Journal of the Acoustical Society of America, 100, 2425-2438.

Lecanuet, J. y Schaal, B. (2002). Sensory performances in the human foetus: A brief summary of research. Intellectica, 34, 29-56.

MacWhinney, B. (1998). Models of the emergence of language. Annual Review of Psychology, 49, 199-227.

Mampe, B., Friederici, A., Christophe, A. y Wermke, K. (2009). Newborns' cry melody is shaped by their native language. Current Biology, 19, 1994-1997.

Marcus, G., Vijayan, S., Bandi Rao, S. y Vishton, P. (1999). Rule learning by seven-month-old infants. Science, 283, 77-80.

Mehler, J., Bertoncini, J., Barrière, M. y Jassik-Cerschenfeld, D. (1978). Infant recognition of mother's voice. Perception, 7, 491-497.

Mehler, J., Christophe, A. y Ramus, F. (2000). "What we know about the initial state for language", en Marantz, A., Miyashita, Y. y O'neil, W. (eds.). Image, Language, Brain: Papers from the First Mind-Articulation Project Symposium. Cambridge, MA: MIT Press. p. 1-22.

Mehler, J., Jusczyk, P., Lambertz, G., Halsted, N., Bertoncini, J. y Amiel-Tison, C. (1988). A precursor of language acquisition in young infants. Cognition, 29, 143-178.

Mehler, J., Nespor, M. y Peña, M. (2008). What infants know and what they have to learn about language. European Review, 16, 429-444.

Mellow, J. (2008). How big is minimal? Lingua, 118, 632-635.

Nazzi, T., Bertoncini, J. y Mehler, J. (1998). Language discrimination by newborns: Toward an understanding of the role of rhythm. Journal of Experimental Psychology: Human Perception and Performance, 24, 756-766.

Nazzi, T., Floccia, C. y Bertoncini, J. (1998). Discrimination of pitch contours by neonates. Infant Behavior and Development, 21, 779-784.

Nazzi, T., Jusczyk, P. y Johnson, E. (2000). Language discrimination by English-Learning 5-Months-Olds: Effects of rhythm and familiarity. Journal of Memory and Language, 43, 1-19.

O'Grady, W. (2008). Innateness, universal grammar, and emergentism. Lingua: International Review of General Linguistics, 118, 620-631.

Peña, M., Pittaluga, E. y Mehler, J. (2010). Language acquisition in premature and full-term infants. Proceedings of the National Academy of Sciences of the United States of America, 107, 3823-3828.

Pérez-Almonacid, R. y Quiroga, L. (2010). Lenguaje. Una aproximación interconductual. Bogotá: Corporación Universitaria Iberoamericana.

Petitto, L. (2005). "How the brain begets language", en McGilvray, J. (ed.). The Cambridge Companion to Chomsky. Cambridge , Reino Unido: Cambridge University Press. p. 84-101.

Pinker, S. y Jackendoff, R. (2005). The faculty of language: what's special about it? Cognition, 95, 201-236.

Pons, F. y Toro, J. (2010). Structural generalizations over consonants and vowels in 11-month old infants. Cognition, 116, 361-367.

Quartz, S. y Sejnowsky, T. (1997). A neural basis of cognitive development: a constructivist manifesto. Behavioral and Brain Sciences, 20, 537-556.

Ramus, F. (1999). Rythme des langues et acquisition du langage (tesis doctoral). EHESS, París. Disponible en: http://tel.archives-uvertes.fr/docs/00/24/24/52/PDF/thesefinal.pdf

Ramus, F. (2002). Language discrimination by newborns: Teasing apart phonotactic, rhythmic, and intonational cues. Annual Review of Language Acquisition, 2, 85-115.

Ramus, F., Dupoux, E. y Mehler, J. (2003). The psychological reality of rhythm classes: Perceptual studies. Trabajo presentado en el 15th International Congress of Phonetic Sciences. Barcelona, España. Disponible en: http://www.lscp.net/persons/ramus/docs/ICPhS03.pdf

Ramus, F., Hauser, M., Miller, C., Morris, D. y Mehler, J. (2000). Language discrimination by human newborns and by cotton-top tamarin monkeys. Science, 288, 349-351.

Ramus, F., Nespor, M. y Mehler, J. (1999). Correlates of linguistic rhythm in the speech signal. Cognition, 73, 265-292.

Saffran, J., Aslin, R. y Newport, E. (1996). Statistical learning by 8-Month-Old infants. Science, 274, 1926-1928.

Saffran, J., Hauser, M., Seibel, R., Kapfhamer, J., Tsao, F. y Cushman, F. (2008). Grammatical pattern learning by human infants and cotton-top tamarin monkeys. Cognition, 107, 479-500.

Scholz, B. y Pullum, G. (2002). Searching for arguments to support linguistic nativism. The Linguistic Review, 19, 185-223.

Seidenberg, M. y MacDonald, M. (1999). A probabilistic constraints approach to language acquisition and processing. Cognitive Science, 23, 569-588.

Shi, R. y Werker, J. (2001). Six-month-old infants' preference for lexical words. Psychological Science, 12, 70-75.

Shi, R., Werker, J. y Morgan, J. (1999). Newborn infants' sensitivity to perceptual cues to lexical and grammatical words. Cognition, 72, B11-B21.

Toledo, G. (2009). Métricas rítmicas entres dialectos Amper-Hispanoamérica. Ianua. Revista Philologica Romanica, 9, 1-21.

Toro, J., Nespor, M., Mehler, J. y Bonatti, L. (2008). Finding words and rules in a speech stream: Functional differences between vowels and consonants. Psychological Science, 19, 137-144.

Weissenborn, J., Goodluck, H. y Roeper, T. (Eds.) (1992). "Introduction: old and new problems in the study of language acquisition", en Theoretical Issues in Language Acquisition Hillsdale, N. J.: Erlbaum. p. 1-23.

Werker, J. y Tees, R. (1984). Cross-language speech perception: Evidence for perceptual reorganization during the first year of life. Infant Behavior and Development, 7, 49-63.

Descargar PDF
Opciones de artículo