¿Cómo se ve de bien lo que se oye? La agudeza visual sustituida por la sensorial auditiva

Los dispositivos de sustitución sensorial (SSDs) tienen por objeto compensar la pérdida de una modalidad sensorial, normalmente la visión, mediante la conversión de la información de la modalidad perdida en estímulos de una modalidad remanente. «The vOICe» es un SSDs visual-versus-auditivo que codifica las imágenes tomadas por una cámara que porta el usuario como si fueran «paisajes sonoros»; de tal manera que los usuarios experimentados pueden extraer información sobre su entorno. Se investigó el nivel de detalle que se podía alcanzar durante las primeras fases de iniciación mediante pruebas de agudeza visual con videntes con los ojos vendados. El rendimiento inicial estuvo muy por encima de la probabilidad. Los participantes que hicieron la prueba dos veces, como una manera de formación mínima, mostraron una marcada mejoría en la segunda prueba. La agudeza visual mermó ligeramente, pero no fue significativamente afectada, cuando los participantes usaron una cámara y fallaron en la orientación de las letras «en directo». Se encontró una correlación positiva entre la formación musical de los participantes y su agudeza visual. La relación entre la experiencia auditiva a través de la formación musical, y la falta de una relación con la imaginación visual, sugiere que el uso temprano de un SSDs se basa principalmente en los mecanismos de la modalidad sensorial que se utiliza en lugar de la que está siendo sustituida. Si se pierde la visión, la audición representa el canal sensorial de mayor ancho de banda de los que han quedado. El nivel de agudeza descubierto, y el hecho de que se logró con usuarios inexpertos con muy poca experiencia en sustitución sensorial, es prometedor.

¿Vemos con los ojos o con el cerebro? ¿Es la visión una forma discreta de la percepción, distinta de otras, como la audición y el tacto? ¿Es posible para aquellos que han perdido la vista, o han nacido ciegos experimentar sensación visual o percepción? Preguntas como éstas han ocupado las mentes de filósofos y científicos durante siglos (Morgan, 1977), y ahora están en el centro de la moderna neurociencia cognitiva. Hoy en día, con las técnicas experimentales y las tecnologías actuales, incluyendo imágenes por resonancia magnética de alta resolución del cerebro, y dispositivos con los que se pretende trasducir información desde una modalidad sensorial perdida en el cerebro a través de otra modalidad, se progresa hacia la búsqueda de respuestas a estas preguntas. Los dispositivos de sustitución sensorial (SSDs) tienen por objeto compensar la pérdida de una modalidad sensorial, típicamente la visión, mediante la conversión de la información de la modalidad perdida en estímulos en una modalidad restante (Bach-y-Rita y Kercel, 2003). Aquí hemos utilizado sustitución sensorial para ver cómo se producen las primeras etapas del aprendizaje de «ver con el sonido», y la calidad de la transferencia de la información de la visión a la audición según se evaluó con una prueba de agudeza visual. Una comprensión más completa de la manera en la que esto ocurre puede ayudar al desarrollo de estos dispositivos que no sólo replican la funcionalidad sensorial perdida, en particular en los invidentes, sino que junto con la investigación sobre sinestesia y procesamiento multisensorial, también ponen en cuestión nuestra noción de las modalidades sensoriales como entidades funcionalmente discretas, no solapadas.

Cambios después de la pérdida sensorial

Pueden presentarse importantes cambios neuroplasticos en un cerebro que no está dañado, pero que ha perdido la aportación de una modalidad sensorial. Procesos multisensoriales en que las señales de múltiples modalidades se unen para formar una percepción pueden incluir también un grado de redundancia: la forma de un objeto se puede percibir con las manos y los ojos al mismo tiempo o por separado; los ojos y los oídos se pueden utilizar conjuntamente para determinar la dirección de una fuente de sonido física con más precisión que únicamente desde el sonido. Puede ser que esta redundancia ayude al cerebro a compensar la pérdida sensorial por la mejora de la función de los sentidos restantes (Merabet y Pascual-Leone, 2010).

Personas ciegas, sobre todo los nacidos sin el sentido de la vista, o los que perdieron la vista muy pronto, muestran a menudo un rendimiento superior en otras modalidades, incluyendo la discriminación más fina del tono y la localización del sonido, discriminación táctil más precisa, mejor discriminación del habla y la memoria verbal (Merabet et al., 2005 ; Pasqualotto y Proulx, 2012; Pasqualotto et al., 2013). Las personas ciegas carecen de input visual normal en sus cortezas occipitales, pero los estudios por imagen del cerebro han demostrado que esta zona está, sin embargo, activa durante una serie de tareas, incluyendo la lectura Braille, tareas de localización auditiva, comprensión del habla y la memoria verbal (Merabet et al., 2005).

Sin embargo es necesario que la pérdida sensorial no haya ocurrido en edad muy temprana, y los cambios pueden ocurrir con rapidez en los adultos después de la privación sensorial. En un estudio, los participantes tenían los ojos vendados 24 h al día durante 5 días y se les dio un entrenamiento intensivo en tareas de discriminación táctiles y espaciales. Los participantes experimentaron alucinaciones visuales poco después de vendarles los ojos y los escáneres hechos con imagen por resonancia magnética funcional (IRMf) mostraron activación de la corteza occipital cuando se estimularon las yemas de los dedos, con la corteza visual primaria y secundaria cada vez más activas durante el período con los ojos vendados (Pascual-Leone y Hamilton, 2001). Se interrumpieron las habilidades de discriminación táctil aprendidas durante el experimento cuando las cortezas occipitales de los participantes fueron sometidas a la estimulación magnética transcraneana repetitiva (EMTr). Después del período de los ojos vendados, los cerebros de los participantes fueron examinados de nuevo y hubo ausencia de actividad de la corteza occipital vinculada a la estimulación táctil. Debido a que los cambios observados en este experimento se manifiestan y luego se anulan con tanta rapidez, no se pueden haber establecido nuevas conexiones neuronales. En cambio, las conexiones existentes entre sistemas somatosensoriales, auditivo y cortezas visuales fueron «desenmascaradas» cuando el input a partir de los ojos cesó temporalmente. Los autores de este estudio sugieren que la neuroplasticidad como respuesta a la pérdida sensorial es un proceso de dos etapas: rápido desenmascaramiento de las conexiones cortico-corticales existentes seguida por la formación más lenta y permanente de nuevas conexiones neuronales (Pascual-Leone y Hamilton, 2001).

Sustitución Sensorial

La sustitución sensorial es el uso de una modalidad (la modalidad de sustitución) para reemplazar a otra (la modalidad sustituida). El concepto ha sido interpretado por algunos en un sentido muy amplio para incluir, por ejemplo, la lectura, en la que la visión (la palabra escrita) sustituye a la audición (la palabra hablada) (Bach-y-Rita y Kercel, 2003). Más comúnmente, sin embargo, el término se utiliza para referirse a un medio para permitir a una persona que ha sufrido pérdida sensorial para hacer uso de sus sentidos restantes para llevar a cabo las funciones normalmente llevadas a cabo usando el sentido perdido. Un ejemplo obvio y ampliamente utilizado es el Braille, en el que la percepción táctil a través de los dedos sustituye a la visión (o, incluso, el oído), permitiendo leer a las personas ciegas. Sin embargo, este sistema sólo sustituye un aspecto específico de una modalidad, concretamente, el lenguaje; sustitución que, en general, representa un reto técnico mucho mayor. Este reto se ha cumplido en los últimos cuatro decenios con una gran variedad de sistemas y dispositivos, muchos de los cuales han sido diseñados para sustituir la vista, ya sea con el tacto o con el oído.

Sustitución Sensorial Auditiva-Visual

En los sistemas de sustitución sensorial táctil-visual (TVSS), las funciones de la piel o de la lengua son como un análogo de la retina (Bach-y-Rita et al., 1969). Sin embargo, por comparación, es muy imperfecta y de baja resolución. Kokjer (1987) estimó que la capacidad de información de la yema del dedo humano estaba en el orden de 100 bps. El ojo, en cambio, se estima que puede ofrecer alrededor de 4,3 × 10 elevado a 6 bps (Jacobson, 1951), una magnitud de 4 a 1 mayor de ancho de banda. El oído se sitúa entre estos dos límites, su capacidad se ha estimado en alrededor de 10 elevado a 4 bps (Jacobson, 1950). Así pues, aunque paralelos entre el sistemas visual y el auditivo no son evidentes de la misma forma en que el análogo de la piel/retina lo es; el oído tiene el potencial para proporcionar un rendimiento superior mediante el envío de la información visual al cerebro que no la piel.

El primer sistema de sustitución sensorial auditivo-visual de propósito general (AVSS) fue desarrollado por Meijer (1992). Es conocido como “The vOICe” («La VOZ») y es el sistema utilizado en el presente estudio. La voz convierte las imágenes captadas por una cámara en «paisajes sonoros» que llegan al usuario a través de los auriculares a una tasa predeterminada de un paisaje sonoro por segundo. Cada paisaje sonoro es una exploración de izquierda a derecha de la escena visual con una frecuencia que representa el eje vertical de la imagen y el volumen que representa el brillo (estas asignaciones no son arbitrarias, véase Evans y Treisman, 2010). Por tanto, el usuario experimenta una serie de «instantáneas» que pasan desde el oído izquierdo al derecho. Se han desarrollado otros dispositivos AVSS: uno que utiliza un protocolo de codificación similar a The vOICe, pero que convierte escenas en imágenes similares a dibujos lineales y produce una salida más «musical» (Cronly-Dillon et al., 1999, 2000); otra, la Prótesis para la Sustitución de la Visión por Audición (PVSA), no explora el campo visual pero permite aumentar la frecuencia tanto de abajo hacia arriba y de izquierda a derecha de la imagen capturada, utilizando una mayor densidad de «píxeles» auditivos en el centro de la imagen para simular la fóvea (Capelle et al., 1998); y la tercera, el «Vibe», tampoco explora el campo visual, pro en cambio lo divide en varios «campos receptivos» que se presentan al mismo tiempo, su posición codificada por la frecuencia y el balance izquierdo y derecho de los canales audio. (Auvray et al., 2005; Hanneton et al., 2010).

Al igual que con los dispositivos TVSS, los usuarios de sistemas AVSS comunican un reparto distal (Auvray et al., 2005). Los usuarios se han presentado para reconocer patrones (Arno et al., 2001), reconocer y localizar objetos en el espacio 3D, incluyendo el reconocimiento de objetos nunca vistos antes en categorías como «plant» o «boot» (Auvray et al., 2007; Merabet et al., 2009). Una experta, ciega reciente, usuaria de The vOICe, PF, ha dado repetidas descripciones detalladas de sus experiencias, que, según ella, han mejorado poco a poco y se parecen más a la visión. La percepción de profundidad, el movimiento suave (en contraposición a las «instantáneas» de 1 Hz) e incluso la experiencia de colores manifestados con el uso continuado del dispositivo por PF, sugieren que su cerebro se había ido adaptando gradualmente para procesar de manera más eficiente este nuevo tipo de información auditiva (Ward, y Meijer, 2010).

Autores: Alastair Haigh, David J. Brown, Peter Meijer y Michael J. Proulx
Fuente: frontiersin.org
Traducción: Asociación MÁCULA RETINA

 

Web Relacionada