La reciente demanda presentada por Harvey Eugene Murphy Jr. contra Macy’s y Sunglass Hut subraya la creciente preocupación por el uso indebido de la tecnología de reconocimiento facial en el sector minorista. El caso, que implica una reclamación de 10 millones de euros, destaca los importantes riesgos y dilemas éticos que plantean las herramientas de inteligencia artificial (IA) a la hora de identificar personas con fines policiales.
Lumiere AI de Google: ideal para la generación de videos realistasEn enero de 2022, se produjo un robo en una tienda Sunglass Hut de Houston. El sistema de reconocimiento facial utilizado por los minoristas identificó erróneamente a Murphy como el ladrón armado. La demanda alega que este error se debió principalmente a la baja calidad de las imágenes de vigilancia y a los fallos inherentes al software de reconocimiento facial. Es digno de mención que Murphy afirma que estaba en California en el momento del robo, lo cual, según dice, su abogado verificó.
Esta identificación errónea tuvo consecuencias nefastas para Murphy. Después de su arresto injusto, fue recluido en una cárcel de máxima seguridad superpoblada por delincuentes violentos. Durante su encarcelamiento, Murphy supuestamente sufrió una agresión brutal, que incluyó palizas y agresiones sexuales, lo que le provocó un importante trauma físico y psicológico.
Los gigantes de los medios estadounidenses bloquean los rastreadores de inteligencia artificial para proteger los derechos de autorLa demanda plantea serias dudas sobre la confiabilidad y el potencial discriminatorio de la tecnología de reconocimiento facial. El equipo legal de Murphy ha señalado la propensión de la tecnología a cometer errores, especialmente en casos que involucran a personas de color y personas mayores. Estas preocupaciones hacen eco de debates más amplios en la comunidad tecnológica y entre los defensores de los derechos civiles sobre el uso ético de la IA en la vigilancia y la aplicación de la ley.
Un portavoz de Macy’s se negó a comentar sobre el litigio pendiente, y el Departamento de Policía de Houston y el condado de Harris no han sido nombrados en la demanda. Sin embargo, este caso se alinea con un número creciente de acciones legales contra el uso indebido de la tecnología de reconocimiento facial. Por ejemplo, en diciembre de 2023, la Comisión Federal de Comercio prohibió a RiteAid utilizar el reconocimiento facial durante cinco años, citando la mayor probabilidad de que la tecnología genere falsos positivos en tiendas ubicadas en comunidades predominantemente negras y asiáticas.
Murphy, que tuvo problemas con la ley en el pasado pero que desde entonces se había reformado, ahora enfrenta desafíos continuos debido a los impactos físicos y psicológicos de la agresión que sufrió. La demanda presentada por Murphy busca no sólo una compensación sino también actuar como catalizador del cambio, destacando la necesidad de regulaciones más estrictas y consideraciones éticas en el despliegue de tecnologías de reconocimiento facial.
Fuente de la imagen: Shutterstock