julio 1, 2022
Un minuto de lectura

Los robots se vuelven sexistas y racistas por culpa de una IA defectuosa

Los robots se vuelven sexistas y racistas por culpa de una inteligencia artifical (IA) defectuosa. Así lo afirma un nuevo estudio que revela que un robot que funciona con un sistema de inteligencia artificial ampliamente utilizado en Internet prefiere sistemáticamente a los hombres sobre las mujeres, a los blancos sobre las personas de color, y saca conclusiones sobre la profesión o la designación de las personas basándose únicamente en una foto de su rostro.

El trabajo, dirigido por investigadores de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington, que será publicado en la Conferencia sobre Equidad, Responsabilidad y Transparencia de 2022, se considera el primero en demostrar que los robots cargados con este modelo aceptado y ampliamente utilizado funcionan con importantes sesgos de género y raza.

“Hasta donde sabemos, realizamos los primeros experimentos que demuestran que las técnicas de robótica existentes que cargan modelos de aprendizaje automático preentrenados provocan un sesgo de rendimiento en la forma de interactuar con el mundo según los estereotipos de género y raza”, explica un equipo en un nuevo artículo, dirigido por el primer autor e investigador de robótica Andrew Hundt, del Instituto Tecnológico de Georgia.

“El robot ha aprendido estereotipos tóxicos a través de estos modelos de red neuronal defectuosos”, agregó. “Corremos el riesgo de crear una generación de robots racistas y sexistas, pero la gente y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas”.

Internet, lleno de contenido inexacto y abiertamente sesgado

Quienes construyen modelos de inteligencia artificial para reconocer personas y objetos suelen recurrir a vastos conjuntos de datos disponibles gratuitamente en Internet. Pero, según aclaran los científicos en un comunicado de prensa, Internet también está notoriamente lleno de contenido inexacto y abiertamente sesgado, lo que significa que cualquier algoritmo construido con estos conjuntos de datos podría estar impregnado de los mismos problemas.

“Para resumir las implicaciones directamente, los sistemas robóticos tienen todos los problemas que tienen los sistemas de software, además de que su encarnación añade el riesgo de causar daños físicos irreversibles”, aseguró Hundt.

Nota Completa en:

https://www.dw.com/es/inteligencia-artificial-defectuosa-nuevo-estudio-revela-que-robots-est%C3%A1n-aprendiendo-a-ser-racistas-y-sexistas/a-62295784

Noticia anterior

Cabecilla de la Mara Salvatrucha es condenado a 1.090 años de cárcel en El Salvador

Siguiente noticia

Misil ruso deja más de 10 muertos tras ataque a edificio residencial

Recientes de Blog

Ir aarriba

Don't Miss

Familia de escasos recursos casi muere tras comer caldo pollo regalado y posiblemente envenenado

Familia de escasos recursos casi muere tras comer caldo pollo regalado y posiblemente envenenado

Lo que parecía un acto de bondad casi termina con
disfunción eréctil

Autoriza la FDA un gel para la disfunción eréctil que funciona en minutos

La disfunción eréctil es uno de los principales problemas entre