lunes, 18 de abril de 2016

Ahora Facebook también para ciegos


La red social presenta una herramienta que permite leer los metadatos de las fotografías y definirlas en unas pocas palabras, aunque de momento está solo en inglés

La versión inicial integra 100 conceptos, que serán ampliables. Hemos hablado con Nuria del Saz, colaboradora ciega de eldiario.es y la ONCE para saber qué opinan de la herramienta
OCULTAR PUBLI X
PUBLICIDAD
Blind FB. Foto: Philippe Put / Flickr
Blind FB. Foto: Philippe Put / Flickr
"Nuesta meta es la de mejorar Facebook para las personas con discapacidades". Lo decía en septiembre del 2012 Jeff Weiland, el máximo responsable del pequeño grupo que los de Mark Zuckerberg tienen dedicado a mejorar la accesibilidad de la red social. Es un equipo de cuatro personas que, cuatro años después de aquellas declaraciones de su jefe de proyecto, presentó el lunes una herramienta dirigida a todos los ciegos con los que cuenta la red social: Automatic Alternative Text (AAT) lo han bautizado, algo así como "Texto alternativo automático". Lo que hace es leer la fotografía, identificar quién la ha subido, dónde se ha hecho y qué personas están etiquetadas en ella.
De momento, la herramienta solo está disponible para iOS. "La realidad es que el teléfono más accesible es el iPhone", dice Nuria del Saz, colaboradora habitual de eldiario.es en el blog De retrones y hombres. Además de presentadora en Canal Sur, también es escritora: en mayo de 2013 lanzó A ciegas en Manhattan, una novela sobre la cultura estadounidense. También ha publicado algún poemario. Nuria, como otros 39 millones de ciegos, también posee una cuenta en Facebook. Recibe con alegría la noticia al otro lado del teléfono: "Es estupendo lo que me cuentas y todo lo que sea información gráfica, mejor", dice.
Si bien desde la ONCE recalcan que "Facebook no es accesible para personas ciegas", admiten que la noticia "es extraordinaria". Desde que ha saltado el anuncio, un equipo de expertos del CIDAT (Centro de Investigación, Desarrollo y Aplicación Tiflotécnica) de la ONCE está probando la herramienta. También, "hemos mandado a Facebook unas recomendaciones para facilitar a los usuarios la navegación por la página", cuentan desde la organización nacional de ciegos.
Nuevo sistema de Facebook describe fotos en la red social a personas ciegas
Nuevo sistema de Facebook describe fotos en la red social a personas ciegas EFE
Porque la mayoría de la información que compartimos allí es gráfica. Solo en Facebook se reproducen más de ocho mil millones de vídeos al día y se comparten más de 2.000 millones de fotografías. Y es que también escribimos, pero menos. Según la compañía de Zuckerberg, de entre los más de 1.600 millones de cuentas,246 millones pertenecen a gente con problemas de visión severos. "Nosotros utilizamos el ordenador con un lector de pantalla. En MacOSX viene instalado por defecto, pero en Windows hay que comprarlo aparte", dice Nuria. La herramienta se aprovecha de estos lectores para hacer su trabajo. Jeff Wieland, Stefan Parker, Clint Hall y Ramya Sethuraman han sido los cuatro artífices del invento.

Leyendo en alto: coche, sol y selfi

En octubre del año pasado, TechCrunch hablaba con Matt King, el primer ingeniero ciego contratado por Facebook, quien ya daba alguna pista de lo que se venía cociendo en las oficinas de Silicon Valley. "Piensa en qué cantidad de tu consumo son noticias -probablemente la mayoría- y con qué frecuencia la gente hace un comentario sobre una foto o dicen algo sobre ella cuando la publican; lo que es seguro es que nunca te dirán qué hay en la foto", decía King a la publicación. Fue él quien presentó la herramienta el pasado lunes en Menlo Park (EEUU) y explicó que, de momento, solo habían introducido 100 conceptos: coches, barcos, bicicletas, trenes y autobuses; además de montañas, el mar, el sol, la hierba, pizzas, café, helados, sushi e incluso selfis.
"AAT es una nueva herramienta que genera una descripción de la foto usando una tecnología avanzada de reconocimiento", cuentan desde la red social. Supone un salto cualitativo importante: hasta hoy, una persona ciega al navegar por Facebook solo escuchaba quién había subido la fotografía acompañada de la palabrafotografía. "Nosotros usamos Facebook para móvil desde el ordenador. No es un paraíso, pero bueno... Tenemos que ver cómo facilita al usuario la navegación", dice Nuria refiriéndose al AAT. Y es que una persona ciega en Facebook se maneja, en muchos casos, "utilizando el tabulador y un atajo de teclado", según cuenta la ONCE.
El sistema solo está disponible en inglés, aunque la compañía de Zuckerberg prevé traducirlo pronto. El único requisito es la necesaria activación del lector de pantalla del iPhone: VoiceOver. "Entiendo que lo hayan probado en iOS primero. La mayoría de personas ciegas usamos iPhone por las opciones de accesibilidad que ofrece", dice Nuria. AAT describirá una imagen en la que se pueden ver árboles y el cielo, otra en la que hay una pizza y una tercera en la que tres personas están sonriendo y llevan puestas gafas de sol. La nueva herramienta dirá exactamente lo que hay, lo que la foto es.

Novedoso o no tanto

El ingeniero ciego explicaba durante la presentación que el margen de error es muy pequeño. Aún así, han incluido la frase "la imagen puede contener" para reflejar la posibilidad de que la herramienta falle. Sin embargo, ¿es un invento de Facebook? Ellos dicen que sí, que llevan tiempo desarrollando la tecnología. Pero lo cierto es que la semana pasada Twitter ya anunció que añadiría descripciones a las imágenes. Aunque no incluía voz, las fotos con texto pueden ser después "escuchadas" por un lector de pantalla.
"Hay una aplicación que se llama TapTapSee en la que tú envías una foto de algo y te devuelve lo que es", dice Nuria. Es útil para personas que viven solas, sobre todo. "Te dice hasta la marca y los gramos que contiene una lata de tomate", dice Nuria. Y es que la novedosa tecnología de la que hablan los de Zuckerberg guarda ciertas similitudes con la aplicación de la que habla la colaboradora de eldiario.es, por mucho que los de California se basen en "redes neuronales con miles de parámetros" de las que se retroalimenta el AAT. "Si realmente funciona será maravilloso, lástima que luego estas noticias se queden en la mitad de lo que son", sentencia Nuria.

No hay comentarios:

Publicar un comentario