IEVENN
Tecnología

¿Racismo tecnológico? Los autos no tripulados distinguen peor a los peatones de piel oscura

Un estudio denominado ‘Inequidad predictiva en la detección de objetos’ a cargo del Instituto de Tecnología de Georgia (EE.UU.)’, demuestra que las personas con tonos de piel más oscuros corren más riesgo de sufrir un accidente causado por un vehículo automatizado debido a las deficiencias de sus sistemas de reconocimiento de objetos.

La investigación, que está disponible en Arxiv, se basa en numerosos y recientes ejemplos que evidencian cómo los algoritmos de aprendizaje automático «muestran tasas de error más altas para ciertos grupos demográficos que otros». Si bien la habilidad de los coches no tripulados a la hora de reconocer «objetos claves», como peatones o señales de tráfico, desempeña un papel fundamental para evitar víctimas mortales, los sistemas de algunos «vehículos que ya están en carretera» resultaron ser incapaces de mitigar todos los riesgos posibles, reconoce el autor principal, Benjamin Wilson.

El grupo recopiló una gran cantidad de fotografías en las que se ven personas de varios tonos de piel y las mostró a los voluntarios a quienes se les pidió que marquen a los peatones y les asignen una de las cuatro categorías. Una de ellas corresponde al color de piel que no puede ser determinado, la segunda es para los objetos que parecen peatones, pero no lo son, y las dos restantes representan la escala de fototipo de piel de Fitzpatrick (1-3 puntos para los tonos de piel más claros, y 4-6 para los más oscuros).

Estos datos fueron introducidos en ocho algoritmos diferentes  de reconocimiento de imagen con el objetivo de que analizaran con qué frecuencia los sistemas de aprendizaje automático logran identificar la presencia de personas de todos los tonos de piel. Resultó que para el grupo con tono de piel más oscuro (de entre 4 y 6 en la escala de Fitzpatrick), la detección fue menos precisaen, aproximadamente, un 5% de los casos.

Curiosamente, este índice no se vio afectado por objetos que, parcialmente, bloquean a los peatones ni tampoco por la falta de luz natural. No obstante, los fallos del sistema no se deben tanto a la imperfección de propios algoritmos, sino a la insuficiencia de datos utilizados para diseñarlos y probarlos, sugieren los expertos.

Los modelos que utilizaron los autores del estudio no pertenecen a los desarrolladores de los vehículos en cuestión, ya que los fabricantes no hacen pública ese tipo de información, por lo que ensayaron varios modelos elaborados por los investigadores académicos, lo que no significa que el hallazgo del trabajo no sea fructífero.

«En un mundo ideal, los académicos estarían probando modelos reales y conjuntos de entrenamiento utilizados por los fabricantes de automóviles autónomos«, comenta la académica Kate Crawford, cofundadora del Instituto de Investigación AI Now de Nueva York. «Sin embargo, dado que nunca se ponen a disposición -lo que es un problema en sí mismo-, artículos como estos ofrecen datos sólidos sobre los riesgos reales«, concluye.

Límites éticos para la inteligencia artificial

IEVENN

Nueva herramienta Instagram contra la información falsa

Mariángel Paola Álvarez

Cómo solucionar el último fallo de Android que está drenando la batería de los móviles

Medios

Bloqueo chino a tecnológicas globales

IEVENN

Los último de Whatsapp: así se bloquea con huella dactilar

Medios

Twitter prueba una función para «esconder» los mensajes directos ofensivos

Medios

Elon Musk y Tesla, el futuro

IEVENN

¿Mentirosos en las redes?: el 37% de los españoles publica fotos de lugares en los que en realidad no ha estado

Medios

Microsoft admite que escucha algunas grabaciones de Skype y Cortana

Medios

Podcasts en Google: Encuentra y escucha desde los resultados de búsqueda

Mariángel Paola Álvarez

¿Existen límites para la impresión 3D?

Mariángel Paola Álvarez

Sea of Thieves fecha sus actualizaciones mensuales y anuncia el contenido “Dark Relics”

Medios

Dejar Comentario