Inteligencia artificial para leer el rostro y descubrir si mientes

AI al leer las expresiones del rostro, le dirá a la policía cuando los sospechosos ocultan la verdad

(Bloomberg) – La investigación del psicólogo estadounidense Paul Ekman sobre las expresiones faciales generó una nueva carrera de detectores de mentiras humanas hace más de cuatro décadas. La inteligencia artificial pronto podría tomar sus trabajos.

Si bien EE. UU. Ha sido pionero en el uso de tecnologías automatizadas para revelar las emociones ocultas y las reacciones de los sospechosos, la técnica aún es incipiente y toda una multitud de empresas empresariales están trabajando para hacerla más eficiente y menos propensa a las señales falsas.

Facesoft, una empresa emergente del Reino Unido, dice que ha construido una base de datos de 300 millones de imágenes de rostros, algunas de las cuales han sido creadas por un sistema de inteligencia artificial basado en el cerebro humano, informó The Times. El sistema construido por la empresa puede identificar emociones como la ira, el miedo y la sorpresa a partir de microexpresiones que a menudo son invisibles para el observador casual.

«Si alguien sonríe con sinceridad, su boca puede sonreír, pero la sonrisa no llega a sus ojos: las microexpresiones son más sutiles que eso y más rápidas», el cofundador y director ejecutivo Allan Ponniah, que también es un cirujano plástico y reconstructivo En Londres, le dijo al periódico.

Facesoft se acercó a la policía de Mumbai para utilizar el sistema de monitoreo de multitudes para detectar la dinámica evolutiva de la mafia, dijo Ponniah. También ha promocionado su producto a las fuerzas policiales en el Reino Unido.

El uso de algoritmos de inteligencia artificial entre la policía ha generado controversia recientemente. Un grupo de investigación cuyos miembros incluyen Facebook Inc., Microsoft Corp., Alphabet Inc., Amazon.com Inc. y Apple Inc publicaron un informe en abril que indica que los algoritmos actuales apuntan a ayudar a la policía a determinar a quién se le debe otorgar la libertad bajo fianza, libertad condicional o libertad condicional. y que ayudan a los jueces a tomar decisiones de sentencia, son potencialmente sesgados, opacos y pueden incluso no funcionar.

La Alianza para la IA descubrió que dichos sistemas ya se utilizan ampliamente en los EE. UU. Y que también se están estableciendo en otros países. Dijo que se opone a cualquier uso de estos sistemas.

Para ponerse en contacto con el periodista en esta historia: Ellen Milligan en Londres en [email protected]

Para contactar a los editores responsables de esta historia: Eric Pfanner at [email protected], Srinivasan Sivabalan, Amanda Jordan

Para más artículos como este, visítenos en bloomberg.com

Be the first to comment

Leave a Reply

Tu dirección de correo no será publicada.


*