¿Existen herramientas de Emacs para personas con discapacidad visual?


14

Tengo un cliente, un doctorado. candidato en Química Computacional, con discapacidad visual. Es bastante autosuficiente y ha tenido cierto éxito al aprender el contenido leyendo directamente la fuente, cuando está disponible, para la mayoría de los textos. Hace esto para leer LaTeX, cuando se usa, para comprender las matemáticas.

También está tratando de aprender Python, que se basa en la sangría para identificar bloques de código. Lo ayudé a hackear el modo python para activar alertas del sistema cada vez que usa la sangría automática, y esto parece funcionar bien por ahora.

Trabaja en un cliente de Windows para acceder a un servidor Unix para su cómputo. En general, su Emacs se está ejecutando en el servidor y está accediendo a él mediante el reenvío X.

Me he encontrado con Emacspeak , pero parece apuntar a cajas de Linux. Hay una variedad de herramientas de texto a voz para la plataforma Windows, y creo que su preferencia es usar JAWS . Estas herramientas son útiles, pero pueden complicar el proceso cuando compiten con las características nativas de enseñar a hablar de varias aplicaciones.

Además de Emacspeak, ¿existen otras herramientas o técnicas para usar Emacs de manera eficiente si tiene una discapacidad visual? ¿Hay detalles esenciales que necesito saber sobre Emacspeak para poder beneficiarme de él?


No tengo la autoridad para agregar las etiquetas deseadas: discapacitados visuales, emacspeak y texto a voz.
Yann

He extendido la discapacidad visual a la accesibilidad. Siéntete libre de retroceder si no estás contento. Además, ¿estás buscando herramientas generales? ¿O específicamente herramientas de Python?
Malabarba

@Malabarba, estoy buscando herramientas generales; Python Tag estaba allí porque necesitaba al menos una etiqueta ... la pregunta ha sido actualizada.
Yann

Respuestas:


Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.