[ad_1]

Un video con protagonistas de dicho color de piel fue asociado por la inteligencia artificial del sistema de recomendación de temas con ese tópico.

Hay errores y hay errores catastróficos.

Las inteligencias artificiales suelen entrenarse con sistemas de aprendizaje automatizado, esto supone la toma de una gran cantidad de información de bases de datos, plataformas o espacios y la identificación de ciertos patrones para la elaboración de categorías.

Los desarrolladores plantean objetivos, pero el desarrollo del sistema es automático. Es un método eficiente, pero no siempre sale bien.

Varios usuarios que vieron un video en Facebook con personas de raza negra se sorprendieron cuando la inteligencia artificial del sistema de recomendación les preguntó si querían seguir viendo videos de primates.

Facebook ha señalado que es un error inaceptable y se ha disculpado con todos los que han visto la recomendación ofensiva.

La compañía comentó que había deshabilitado la recomendación de tópicos tan pronto como supo sobre lo que estaba pasando y ha comenzado a investigar la causa del incidente para evitar que esto ocurra de nuevo.

Impredecibles

Dado que los sistemas de aprendizaje automático se basan en la búsqueda de patrones los problemas que surgen tienen generalmente su raíz en la información suministrada.

Esto no necesariamente implica que Facebook haya alimentado a su sistema con expresiones racistas. Una base de datos de personas sin una adecuada variedad de razas puede enseñarle a un sistema que la especie humana está vinculada a ciertos colores de piel.

Hace unos años publicamos una serie de imágenes que habían confundido a las IA. En una de ellas un pato era identificado como un parquímetro por encontrarse entre dos autos estacionados.

Publican compendio de imágenes que confunden a las IA

[ad_2]