El pasado mes varios manifestantes interrumpieron durante el discurso del director técnico de Amazon Web Services en la inauguración de una conferencia de AWS en Nueva York. Lo hacían en protesta por el trabajo de AWS con el Servicio de Inmigración y Control de Aduanas de los Estados Unidos (ICE, por sus siglas en inglés) y por su política de separación familiar en la frontera sur.

Amazon no ha reconocido que el ICE utilice su tecnología de reconocimiento facial Rekognition, pero sí se sabe que la compañía se reunió con funcionarios del ICE para presentar este sistema, entre otros servicios de AWS.

Según ello “Amazon Rekognition proporciona un conjunto integral de funciones de detección, análisis y reconocimiento de rostros para el análisis de imágenes y videos. El análisis de rostros genera metadatos sobre rostros detectados en forma de género, rango de edad, emociones” y otros atributos, como si el sujeto está sonriendo.

El reconocimiento de emociones es una técnica de análisis facial que ha sido comercializada por empresas privadas como Affectiva, Kairos y Amazon. Funciona entrenando un sistema de aprendizaje automático para buscar ciertas características en una cara detectada que indican contenido emocional. Por ejemplo, una ceja levantada podría indicar preocupación o desconcierto, mientras que una boca baja podría mostrar sentimientos de repulsión.

Ahora parece que Amazon ha actualizado el rango de emociones detectables para el análisis facial de Rekognition para incluir “miedo”, agregando a una lista de otros siete estados emocionales: “feliz”, “triste”, “enojado”, “sorprendido”, ” disgustado “,” calmado”y” confundido “.

A pesar de las afirmaciones de Amazon, la eficacia del reconocimiento de emociones está en disputa. Un estudio reciente que revisó más de 1,000 artículos académicos sobre el reconocimiento de emociones encontró que la técnica es profundamente defectuosa : simplemente no existe una correlación lo suficientemente fuerte entre las expresiones faciales y las emociones humanas reales, y los métodos comunes para entrenar algoritmos para detectar emociones presentan una gran cantidad de otros problemas.

Sin embargo, los activistas dicen que estas tecnologías son especialmente dañinas en manos de agencias gubernamentales como Inmigración y Aduanas (ICE) y Aduanas y Patrulla Fronteriza (CBP).

La naturaleza nociva del reconocimiento y análisis faciales en manos de las fuerzas del orden ha provocado que algunas ciudades vuelvan a pensar si la tecnología puede implementarse de manera ética. San Francisco, CA y Somerville, MA, han prohibido el uso municipal del reconocimiento facial, y se está considerando una medida similar en Cambridge, MA este otoño.

1
Responder

avatar
1 Comentarios
0 Responder
1 Seguidores
 
Comentario más seguido
Comentario más interesante
1 Autores
Pharizna Autores más recientes
  Suscribirse  
Notificación