julio 1, 2022
Un minuto de lectura

Los robots se vuelven sexistas y racistas por culpa de una IA defectuosa

Los robots se vuelven sexistas y racistas por culpa de una inteligencia artifical (IA) defectuosa. Así lo afirma un nuevo estudio que revela que un robot que funciona con un sistema de inteligencia artificial ampliamente utilizado en Internet prefiere sistemáticamente a los hombres sobre las mujeres, a los blancos sobre las personas de color, y saca conclusiones sobre la profesión o la designación de las personas basándose únicamente en una foto de su rostro.

El trabajo, dirigido por investigadores de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington, que será publicado en la Conferencia sobre Equidad, Responsabilidad y Transparencia de 2022, se considera el primero en demostrar que los robots cargados con este modelo aceptado y ampliamente utilizado funcionan con importantes sesgos de género y raza.

“Hasta donde sabemos, realizamos los primeros experimentos que demuestran que las técnicas de robótica existentes que cargan modelos de aprendizaje automático preentrenados provocan un sesgo de rendimiento en la forma de interactuar con el mundo según los estereotipos de género y raza”, explica un equipo en un nuevo artículo, dirigido por el primer autor e investigador de robótica Andrew Hundt, del Instituto Tecnológico de Georgia.

“El robot ha aprendido estereotipos tóxicos a través de estos modelos de red neuronal defectuosos”, agregó. “Corremos el riesgo de crear una generación de robots racistas y sexistas, pero la gente y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas”.

Internet, lleno de contenido inexacto y abiertamente sesgado

Quienes construyen modelos de inteligencia artificial para reconocer personas y objetos suelen recurrir a vastos conjuntos de datos disponibles gratuitamente en Internet. Pero, según aclaran los científicos en un comunicado de prensa, Internet también está notoriamente lleno de contenido inexacto y abiertamente sesgado, lo que significa que cualquier algoritmo construido con estos conjuntos de datos podría estar impregnado de los mismos problemas.

“Para resumir las implicaciones directamente, los sistemas robóticos tienen todos los problemas que tienen los sistemas de software, además de que su encarnación añade el riesgo de causar daños físicos irreversibles”, aseguró Hundt.

Nota Completa en:

https://www.dw.com/es/inteligencia-artificial-defectuosa-nuevo-estudio-revela-que-robots-est%C3%A1n-aprendiendo-a-ser-racistas-y-sexistas/a-62295784

Noticia anterior

Cabecilla de la Mara Salvatrucha es condenado a 1.090 años de cárcel en El Salvador

Siguiente noticia

Misil ruso deja más de 10 muertos tras ataque a edificio residencial

Recientes de Blog

Descubren túnel clandestino en Tijuana

Descubren túnel clandestino en Tijuana

El túnel, de 350 metros de largo, fue localizado por soldados y policías dentro de una vivienda en la ciudad de Tijuana. Las fuerzas de seguridad de México hallaron este miércoles (18.06.2025)
Cohete de SpaceX

Explota Cohete de SpaceX en prueba de rutina SpaceX precisó que el Starship “se preparaba para la décima prueba de vuelo” cuando “sufrió una anomalía mayor”, aunque “todo el personal está sano
Ir aarriba

Don't Miss

Nogales no cuenta con una bolsa de trabajo para migrantes deportados

Nogales no cuenta con una bolsa de trabajo para migrantes deportados

El Secretario del Ayuntamiento de Nogales, Hipólito Sedano Ruíz, informó
Estados Unidos aprueba tratamiento para prevenir el VIH

Estados Unidos aprueba tratamiento para prevenir el VIH

Estados Unidos aprobó este miércoles un nuevo tratamiento para prevenir