Es un hecho desafortunado de nuestra sociedad que los seres humanos son inherentemente sesgados. Esto puede suceder conscientemente cuando los humanos tienen prejuicios hacia las minorías raciales, las religiones, los géneros o las nacionalidades, e incluso puede suceder inconscientemente cuando los prejuicios se desarrollan como resultado de la sociedad, la familia y el condicionamiento social desde el nacimiento. Cualquiera que sea la razón, los sesgos existen en los humanos y ahora también se transmiten a los sistemas de inteligencia artificial creados por humanos. Estos sesgos se pueden pasar al sesgo de inteligencia artificial.en los sistemas de IA cuando se entrenan con datos que incluyen sesgos humanos, desigualdades históricas o diferentes métricas de juicio basadas en el género, la raza, la nacionalidad, la orientación sexual, etc. de los humanos. Por ejemplo, Amazon descubrió que su algoritmo de reclutamiento de IA estaba sesgado contra las mujeres. Este algoritmo se basó en la cantidad de currículos enviados durante los últimos 10 años y los candidatos contratados. Y dado que la mayoría de los candidatos eran hombres, el algoritmo también favorecía a los hombres sobre las mujeres. Como puede ver en este ejemplo, los sesgos en la Inteligencia Artificialhace mucho daño. Este sesgo perjudica las posibilidades del grupo sesgado de participar plenamente en el mundo y brindar los mismos beneficios a la economía. Y si bien perjudica a los grupos contra los que está sesgado el algoritmo, también perjudica la confianza de los humanos en los algoritmos de inteligencia artificial para trabajar sin prejuicios. Reduce las posibilidades de que la Inteligencia Artificial se utilice en todos los aspectos de los negocios y la industria, ya que esto genera desconfianza y temor a que las personas puedan ser discriminadas. Por lo tanto, las industrias técnicas que producen estos algoritmos de inteligencia artificial deben asegurarse de que sus algoritmos estén libres de sesgos antes de lanzarlos al mercado. Las empresas pueden hacer esto fomentando la investigación sobre el sesgo de inteligencia artificial para erradicar el sesgo en el futuro. Pero antes de que esto pueda suceder, también necesitamos conocer los ejemplos en los que diferentes algoritmos demostraron el sesgo de la inteligencia artificial. Así que veámoslos para que podamos entender lo que los algoritmos no deberían hacer en los próximos tiempos.
¿Qué algoritmos demuestran sesgo de inteligencia artificial?
Estos son algunos algoritmos que han demostrado sesgo de inteligencia artificial. En particular, este sesgo siempre se demuestra contra las minorías en un grupo, como los negros, los asiáticos, las mujeres, etc.
1. Algoritmo COMPAS sesgado contra los negros
COMPAS, siglas de Correctional Offender Management Profiling for Alternative Sanctions, es un algoritmo de inteligencia artificial creado por Northpointe y utilizado en los EE. UU. para predecir qué delincuentes tienen más probabilidades de volver a delinquir en el futuro. Con base en estos pronósticos, los jueces toman decisiones sobre el futuro de estos delincuentes que van desde sus sentencias de cárcel hasta los montos de las fianzas para su liberación. Sin embargo, ProPublica, una organización de noticias sin fines de lucro ganadora del premio Pulitzer descubrió que COMPAS estaba sesgado. Se consideró que los delincuentes negros tenían muchas más probabilidades de volver a cometer delitos en el futuro de lo que cometieron. Por otro lado, COMPAS consideró que los delincuentes blancos eran menos riesgosos que ellos. Incluso para los delitos violentos, los delincuentes negros fueron clasificados erróneamente como más peligrosos casi el doble de tiempo en comparación con los delincuentes blancos. Este descubrimiento en COMPAS demostró que de alguna manera había aprendido el sesgo inherente que es frecuente en los humanos, es decir, las personas negras cometen muchos más delitos que los blancos en promedio y es más probable que cometan delitos en el futuro también.
2. Algoritmo PredPol sesgado contra las minorías
PredPol o policía predictiva es un algoritmo de inteligencia artificial que tiene como objetivo predecir dónde ocurrirán los delitos en el futuro en función de los datos de delitos recopilados por la policía, como los recuentos de arrestos, la cantidad de llamadas policiales en un lugar, etc. Este algoritmo ya se utiliza por los departamentos de policía de EE. UU. en California, Florida, Maryland, etc. y tiene como objetivo reducir el sesgo humano en el departamento de policía dejando la predicción del crimen a la inteligencia artificial. Sin embargo, investigadores en los EE. UU. descubrieron que PredPolen sí mismo estaba sesgado y enviaba repetidamente agentes de policía a vecindarios particulares que contenían una gran cantidad de minorías raciales, independientemente de la cantidad de delitos que ocurrieran en el área. Esto se debió a un ciclo de retroalimentación en PredPol en el que el algoritmo predijo más delitos en las regiones donde se realizaron más informes policiales. Sin embargo, podría ser que se hicieran más denuncias policiales en estas regiones porque la concentración policial era mayor en estas regiones, tal vez debido al sesgo humano existente. Esto también resultó en un sesgo en el algoritmo que envió más policías a estas regiones como resultado.
3. El motor de reclutamiento de Amazon está sesgado contra las mujeres
El motor de reclutamiento de Amazon es un algoritmo de inteligencia artificial que se creó para analizar los currículos de los solicitantes de empleo que solicitan empleo en Amazon y decidir cuáles serían llamados para futuras entrevistas y selección. Este algoritmo fue un intento de Amazon de mecanizar su búsqueda de personas talentosas y eliminar el sesgo humano inherente que está presente en todos los reclutadores humanos. Sin embargo, el algoritmo de Amazonresultó estar sesgado contra las mujeres en el proceso de contratación. Esto puede haber ocurrido porque el algoritmo de reclutamiento fue entrenado para analizar el currículum de los candidatos mediante el estudio de la respuesta de Amazon a los currículums que se enviaron en los últimos 10 años. Sin embargo, los reclutadores humanos que analizaron estos currículums en el pasado eran en su mayoría hombres con un sesgo inherente contra las mujeres candidatas que se pasaron al algoritmo de IA. Cuando Amazon estudió el algoritmo, descubrió que deshabilitaba automáticamente los currículos que contenían palabras como «mujeres» y también degradaba automáticamente a los graduados de dos universidades exclusivamente para mujeres. Por lo tanto, Amazon finalmente descartó el algoritmo y no lo usó para evaluar candidatos para el reclutamiento.
4. Algoritmo de Google Fotos sesgado contra los negros
Google Photos tiene una función de etiquetado que agrega una etiqueta a una foto correspondiente a lo que se muestra en la imagen. Esto lo hace una red neuronal convolucional (CNN) que se entrenó con millones de imágenes en aprendizaje supervisado y luego usa el reconocimiento de imágenes para etiquetar las fotos. Sin embargo, este algoritmo de Googlese consideró racista cuando etiquetó las fotos de un desarrollador de software negro y su amigo como gorilas. Google afirmó que estaban consternados y realmente arrepentidos por este error y prometieron que lo corregirían en el futuro. Sin embargo, todo lo que Google había hecho hasta 2 años después fue eliminar a los gorilas y otros tipos de monos del vocabulario de Convolutional Neural Network para que no identificara ninguna foto como tal. Google Photos mostró «sin resultados» para todos los términos de búsqueda relacionados con monos como el gorila, el chimpancé, el chimpancé, etc. Sin embargo, esta es solo una solución temporal ya que no resuelve el problema subyacente. La tecnología de etiquetado de imágenes aún no es perfecta e incluso los algoritmos más complejos solo dependen de su entrenamiento y no tienen forma de identificar casos de esquina en la vida real.
5. Algoritmo de reconocimiento facial de IDEMIA sesgado contra las mujeres negras
IDEMIA’S es una empresa que crea algoritmos de reconocimiento facial utilizados por la policía de EE. UU., Australia, Francia, etc. Con este sistema de reconocimiento facial se analizan alrededor de 30 millones de fichas policiales en EE. UU. para comprobar si alguien es un delincuente o un peligro para la sociedad. Sin embargo, el Instituto Nacional de Estándares y Tecnología revisó el algoritmo y descubrió que cometió errores significativos al identificar a las mujeres de la espalda en comparación con las mujeres blancas o incluso con los hombres blancos y negros. Según el Instituto Nacional de Estándares y Tecnología, los algoritmos de Idemiacoincidió falsamente con el rostro de una mujer blanca a una tasa de uno en 10 000, mientras que coincidió falsamente con el rostro de una mujer negra a una tasa de uno en 1 000. Esto es 10 veces más coincidencias falsas en el caso de mujeres negras, lo cual es mucho ! En general, los algoritmos de reconocimiento facial se consideran aceptables si su tasa de coincidencias falsas es de una en 10 000, mientras que la tasa de coincidencias falsas encontrada para las mujeres negras fue mucho mayor. Idemia afirma que los algoritmos probados por NIST no se han lanzado comercialmente y que sus algoritmos están mejorando en la identificación de diferentes razas a diferentes velocidades, ya que hay diferencias físicas involucradas en las razas.
Publicación traducida automáticamente
Artículo escrito por harkiran78 y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA