Los sistemas de reconocimiento facial es una nueva tecnología que ha comenzado a implementarse en diversas partes del mundo, pero que no han estado exentas de críticas y cuestionamientos.
Uno de las críticas tiene relación a que tiene un sesgo racial, lo que ha sido confirmado recientemente por un estudio del Instituto Nacional de Estándares y Tecnología (NIST), en Estados Unidos.
Las personas asiáticas y afroamericanas tenían hasta 100 veces más probabilidades de ser mal identificadas que los hombres blancos, dependiendo del algoritmo particular y el tipo de búsqueda. Los nativos americanos, tenían la tasa más alta de falsos positivos de todas las etnias, según el estudio, que encontró que los sistemas variaban ampliamente en su precisión.
Los rostros de las mujeres afroamericanas se identificaron falsamente con mayor frecuencia en los tipos de búsquedas utilizadas por los investigadores policiales en los que se compara una imagen con miles o millones de personas con la esperanza de identificar a un sospechoso.
Los algoritmos desarrollados en los Estados Unidos también mostraron altas tasas de error para búsquedas "individuales" de asiáticos, afroamericanos, nativos americanos e isleños del Pacífico. Dichas búsquedas son críticas para funciones que incluyen registros de teléfonos celulares y esquemas de embarque en aeropuertos, y los errores podrían facilitar a los impostores el acceso a esos sistemas. Las mujeres tenían más probabilidades de ser identificadas en falso que los hombres, y ancianos y niños tenían más probabilidades de ser identificados erróneamente que los de otros grupos de edad, según el estudio. Los hombres blancos de mediana edad generalmente se beneficiaron de las tasas de precisión más altas.
El Instituto Nacional de Estándares y Tecnología encontró "evidencia empírica" ??de que la mayoría de los algoritmos de reconocimiento facial exhiben "diferenciales demográficos" que pueden afectar su precisión en función de la edad de una persona, género o raza.
El estudio podría sacudir fundamentalmente una de las herramientas de más rápido crecimiento de la aplicación de la ley estadounidense para identificar sospechosos y testigos criminales, que según los defensores de la privacidad, está marcando el comienzo de una nueva y peligrosa ola de herramientas de vigilancia del gobierno. Solo el FBI ha registrado más de 390,000 búsquedas de reconocimiento facial en registros de licencias de conducir estatales y otras bases de datos federales y locales desde 2011, según muestran los registros federales. Los miembros del Congreso de este año han expresado su molestia por la falta de regulación de la tecnología y su potencial para la discriminación y el abuso. Investigadores dijeron que no sabían qué causó los errores pero esperaban que los hallazgos, como dijo en un comunicado el científico informático del NIST Patrick Grother, resulten "valiosos para los responsables políticos, desarrolladores y usuarios finales al pensar en las limitaciones y el uso adecuado de estos algoritmos".
Jay Stanley, un analista de políticas de la Unión Estadounidense de Libertades Civiles que demandó a las agencias federales a principios de 2019 por registros relacionados con la forma en que usan la tecnología, dijo que la investigación mostró por qué los líderes del gobierno deberían detener su uso de inmediato.
"Una coincidencia en falso puede conducir a vuelos perdidos, interrogatorios largos, encuentros policiales tensos, arrestos falsos o algo peor", dijo.
Pero los defectos de la tecnología son solo una preocupación. La tecnología de reconocimiento facial, precisa o no, puede permitir una vigilancia indetectable, persistente y sin sospechas a una escala sin precedentes
Foto: Shutterstock
actualidad
favendano
finde-estudio-confirma-sesgo-racial-de-algunos-sistemas-de-reconocimiento-facial
nedmedia
(function(){ var ioScriptUrl = ‘https://cdn.onthe.io/io.js/YcJ0UhfdeXpu’; function ontheioAddScript() { var d = document, h = d.getElementsByTagName(‘head’)[0], s = d.createElement(‘script’); s.type = ‘text/javascript’; s.async = true; s.src = ioScriptUrl; h.appendChild(s); } function isIOScriptAttached(){ var scripts = document.getElementsByTagName(‘script’); var found = false; for(var i = 0; i < scripts.length; i++){ if(scripts[i].getAttribute('src') === ioScriptUrl){ found = true; } } return found } if (! isIOScriptAttached()){ ontheioAddScript() } })()
FireTracker(’36yNXcfDDr’).event(‘PageView’, {«author»:»favendano»,»origin_url»:»https://mediatique.io/2020/01/02/finde-estudio-confirma-sesgo-racial-de-algunos-sistemas-de-reconocimiento-facial/»,»tags»:[],»categories»:[«actualidad»],»post_type»:»post»,»post_created_at»:»2020-01-02T19:31:00+00:00″})