Ir al contenido
Logo
Ciencia #amazon#inteligencia artificial#Reconocimiento facial

Rekognition: polémica alrededor de las herramientas de reconocimiento facial

A partir de la nueva actualización que detecta el miedo, resurge el debate acerca de las consecuencias que podrían tener en la vida de las personas estas tecnologías en constante crecimiento.

Rekognition: polémica alrededor de las herramientas de reconocimiento facial

En el medio de una disputa política sobre la regulación del reconocimiento facial, Amazon —una de las cuatro grandes compañías de tecnología junto a Google, Apple y Facebook— anunció recientemente un avance en su servicio “Rekognition”, un algoritmo de análisis de imágenes que puede ahora leer el miedo en los rostros.

Rekognition ha estado evaluando las emociones en los rostros a lo largo de una escala variable para siete categorías: "feliz", "triste", "enojado", "sorprendido", "disgustado", "tranquilo" y "confundido". El miedo sería el octavo. Y aunque no es el único (Google y Microsoft ofrecen servicios similares) los psicólogos advierten que tratar de leer las emociones de las expresiones faciales es fundamentalmente erróneo.

¿Por qué las expresiones faciales no son suficientes para detectar estados de ánimo?

Un estudio de la Universidad de California en Berkeley (una de las universidades de mayor prestigio en Estados Unidos y a nivel mundial) encontró que para que una persona lea con precisión las emociones de otra, se requiere prestar atención no solo a su rostro sino también a su lenguaje corporal y sus alrededores. Podemos comprender mejor los mecanismos perceptuales y neurales de la percepción emocional si incorporamos y medimos el papel crítico de la información contextual. En contraste, los algoritmos de inteligencia artificial (AI) generalmente reconocen emociones en base a imágenes de caras estáticas, aisladas y descontextualizadas.

Otro estudio, publicado el mes pasado, tuvo como objetivo más directo analizar softwares de detección de emociones. Los psicólogos revisaron más de 1.000 hallazgos publicados sobre expresiones faciales y emociones y concluyeron que no había evidencia de que las expresiones faciales comuniquen de manera confiable las emociones por sí mismas. La forma en que las personas comunicamos enojo, disgusto, miedo, felicidad, tristeza y sorpresa varía sustancialmente según las culturas, las situaciones e incluso entre las personas dentro de una sola situación.

Entonces, ¿debería preocuparnos esta herramienta de Amazon?

Hubo grandes discusiones alrededor del uso controvertido del reconocimiento facial principalmente en relación a que este servicio se vende a diversos clientes, entre ellos, los departamentos de policía. Una justificación que aparece bastante seguido es: "si no tenés nada que ocultar, no tenés nada que temer". ¿Pero qué sucede con estos sistemas poco precisos? Rekognition fue criticado en julio del año pasado, por ejemplo, cuando una prueba de la Unión de Libertades Civiles de los Estados Unidos (ACLU: American Civil Liberties Union) identificó falsamente a 28 miembros del Congreso como personas que habían sido arrestadas por un delito. También mostró sesgos raciales y de género, probablemente como resultado de un entrenamiento sesgado (recordemos que una AI se “entrena” a partir de información que se le proporciona al algoritmo, en este caso, imágenes de rostros). "Las personas de color ya se ven perjudicadas de manera desproporcionada por las prácticas policiales, y es fácil ver cómo Rekognition podría exacerbar eso", escribió la ACLU. "Una identificación, ya sea precisa o no, podría costarle a las personas su libertad o incluso sus vidas".

Pero la ACLU no fue la única en criticar este sistema:accionistas y empleados de Amazon, así como también grupos de derechos civiles, insisten en que la compañía deje de proporcionar Rekognition a agencias gubernamentales. Por lo cual el anuncio de esta actualización no fue bien recibido. Dadas las ya demostradas deficiencias, se teme que al utilizarse para identificar a personas que cometieran delitos, podrían haber consecuencias para quienes fueran falsamente acusadas: en su posibilidad de conseguir empleo, de obtener vivienda, entre otras cosas.

Nicole Ozer, directora de tecnología y libertades civiles de la ACLU, dice que por ahora, lo mejor que se puede hacer es presionar a las empresas como Amazon, los departamentos de policía y las comunidades locales para que establezcan límites en el uso del reconocimiento facial. Aunque anunciar estas nuevas actualizaciones a pesar de la controversia podría ser una señal de que la compañía continuará lanzando el producto a cualquiera que esté dispuesto a comprarlo.

Otro enfoque en el uso de AI de reconocimiento facial

Existen otras empresas que también utilizan la detección de emociones como herramienta: el proyecto del MIT (Instituto de Tecnología de Massachusetts) surgido en 2009 para ayudar a personas con autismo a comprender mejor a las demás personas a su alrededor, logró ganar fondos de inversores y centrarse en mejorar la seguridad de los automóviles. Así, la start up Affectiva trabaja en un sistema de conducción adaptable a las emociones. Se trata de una AI capaz de detectar el estado mental y emocional del conductor a través de cámaras y sensores colocados en los autos e identificar desde el nivel de distracción hasta el de cansancio y el tono de voz. A partir de esto, la AI podría sugerir rutas alternativas, ejercicios de respiraciones y paradas en el camino, así como también activar alertas cuando los niveles de fatiga son altos.  

Ejemplos como estos hay muchos, habrá que estar atentos y atentas a los nuevos avances de estas tecnologías y las legislaciones a partir de su uso.

Ultimas Noticias