La categoría «gorila» está bloqueada en Google Photos para prevenir el racismo

Dos años y medio es tiempo suficiente para corregir un fallo en un algoritmo de inteligencia artificial ? En el caso de un problema específico con Google Photos, no: en 2015, un desarrollador descubrió que el mecanismo de clasificación automática del servicio etiquetaba las imágenes de los negros como «gorilas». Para resolver el problema, Google decidió simplemente bloquear esta y otras palabras potencialmente racistas.

Al trabajar con software, Jacky Alciné se dio cuenta tan pronto como descubrió el problema de que había un defecto en el algoritmo, no una acción intencional de Google a favor del racismo. Sin embargo, el desarrollador se preguntó qué tipos de imágenes utilizaba el sistema de servicio como parámetros de comparación. Para él, una clasificación más precisa y completa de las personas negras dejaría el algoritmo mejor entrenado para no cometer este tipo de errores.

Google se disculpó rápidamente y prometió investigar el problema, incluso pidiendo permiso a Alciné para acceder a su cuenta para obtener más detalles. Pero aparentemente, no se ha desarrollado ninguna solución desde entonces.

El descubrimiento fue hecho por Wired, quien probó más de 40 mil imágenes en Google Photos. El servicio clasificó correctamente varios tipos de animales, incluso algunos supuestamente más laboriosos, como los pandas y los caniches. Por otro lado, las búsquedas (en inglés) de chimpancés, gorilas y monos no dieron resultados.

¿Cuál es la explicación de esto si buscas primates como el orangután y el babuino funcionaron perfectamente? El Wired pronto asumió que Google simplemente prohibía indefinidamente las palabras que pudieran causar problemas de motivación racial.

Sorprendentemente, Google reconoció el bloqueo. Las categorías habían sido excluidas tan pronto como Alciné informó sobre el problema y siguen siéndolo hoy en día. Un representante de la compañía explicó a Wired que la «tecnología de reconocimiento de imágenes es todavía nueva y, desafortunadamente, está lejos de ser perfecta».

La pregunta sigue siendo: ¿podría Google no resolver el problema o simplemente dejarlo para más tarde? Podría ser una mezcla de los dos. Los expertos en inteligencia artificial reconocen que la tecnología está lejos de tener la capacidad de abstracción y análisis contextual de los humanos. En este sentido, la forma más fácil (el bloqueo de categorías) parece ser la más segura.

Contenido relacionado

Categorías Google

Deja un comentario