La tecnología icónica de nuestro tiempo es divisiva, pero aquí hay algunos casos en los que falla estrepitosamente

¿Qué es el sesgo de IA?

Por lo general, hablamos sobre el sesgo de la IA al tomar decisiones de software, Ciertos grupos están sistemáticamente en desventaja. Por esta razón, mayormente lo asociamos en un sentido negativo, pero según una interpretación más amplia, el sesgo de IA significa algún tipo de cercanía u orientación hacia algo. Como Reggie Townsend, director de ética de datos de SAS, le dijo a Portfolio antes Él dijo: Es muy importante comprender al digitalizar nuestras decisiones que el sesgo proviene de la naturaleza humana.

Los datos provienen del pasado, y si no representan adecuadamente a toda la población, o si muestran actitudes y patrones de comportamiento relacionados con la exclusión o la explotación, construiremos modelos basados ​​en ellos y haremos predicciones de tales acciones, por lo que fortaleceremos ellos.

Los algoritmos de inteligencia artificial usan datos recopilados por humanos, y los humanos también deciden cómo usar los resultados. Los sesgos parciales son muy difíciles de notar, porque están ocultos inconscientemente, Por lo tanto, pueden alimentar fácilmente los sistemas de aprendizaje automático que los amplifican y perpetúan.

Cuando la inteligencia artificial falla…

Uno de los ejemplos más conocidos de sesgo de IA es COMPAS (perfil de castigo alternativo de gestión correctiva de delincuentes), un programa diseñado para predecir la probabilidad de que alguien se convierta en un delincuente reincidente. El tribunal podría haber usado predicciones en la sentencia, pero luego se reveló que la IA tomó decisiones basadas en sesgos peligrosos. El algoritmo vio que los convictos afroamericanos tenían más probabilidades de volver a ser delincuentes, aunque en realidad no era así.

Muy similar fue el caso del algoritmo de aplicación de la ley de Predpol, que utilizó datos recopilados por la policía, como el número de arrestos y acciones policiales, para predecir la probabilidad de que se cometiera un delito en un área determinada. Sin embargo, se ha descubierto que el software utilizado en algunos estados de EE. UU. toma decisiones basadas en sesgos, Y en repetidas ocasiones han enviado más policías a los vecindarios con grandes poblaciones de minorías étnicas, sin importar cuánto crimen haya ocurrido en esa área.

Respecto a ambos casos, muchos expertos advierten:

Los algoritmos de evaluación de riesgos no pueden ser objetivos, ya que no son independientes de los sistemas y estructuras sociales en los que se crean.

Los algoritmos a menudo llevan los sesgos de sus programadores.

Otro caso memorable fue cuando Amazon desarrolló inteligencia artificial para automatizar el proceso de contratación. El software analizaría los currículos enviados e invitaría al candidato más adecuado a la siguiente ronda. Además de acelerar el proceso, Amazon quería deshacerse de las nociones preconcebidas que podrían definir las decisiones de carne y hueso de un empleado de recursos humanos. El objetivo era seleccionar nuevos empleados con base en criterios objetivos, y solo importaban las habilidades.

Sin embargo, la IA ha demostrado ser sexista y califica cualquier currículum que contenga la palabra mujer al revés. Así, por ejemplo, descalifica automáticamente a los estudiantes que hayan egresado de universidades exclusivas para mujeres. El motivo del sesgo fue que el algoritmo se entrenó en un conjunto de datos que incluía currículos presentados en los últimos 10 años y decisiones de contratación tomadas por la empresa. Sin embargo, durante este período las biografías fueron revisadas en su mayoría por hombres sexistas.

Hace unos años, se reveló que la IA médica utilizada en 200.000 pacientes había sido programada erróneamente con sesgos. La inteligencia artificial se ha utilizado para predecir qué pacientes necesitarán y cuánta atención médica adicional. Aunque el origen étnico no estaba presente entre las variables del algoritmo, había un dato estrechamente relacionado con él. Estos fueron costos de atención médica mucho más altos para los pacientes blancos, y debido a que MI usó eso para determinar quién necesitaba atención adicional, prescribió menos para los negros.

¿Qué se puede hacer para reducir el sesgo?

En primer lugar, es muy importante señalar que la decisión de la IA depende de la calidad del conjunto de datos sobre el que ha sido entrenada. Por esta misma razón, los científicos de datos deben asegurarse cada vez que los datos sean una representación fiel del mundo real. Las distorsiones pueden ingresar a los sistemas sin querer si se entrenan con datos distorsionados o si se definen reglas de distorsión apropiadas para ellos.

Una acusación común contra la IA es la falta de transparencia, lo que significa que rara vez tenemos una imagen completa de su funcionamiento. Los mecanismos de aprendizaje profundo utilizan redes neuronales que imitan la forma en que funciona el cerebro humano e intentan tomar decisiones de manera similar. Los detalles del mecanismo rara vez se hacen públicos y es posible que los propios desarrolladores no los conozcan. La última propiedad de la inteligencia artificial también se denomina fenómeno de la caja negra. Al exponer el proceso de IA, los sesgos no desaparecerán, pero si encontramos su origen, será más fácil lidiar con ellos.

El desarrollo y la operación éticos ayudan si las organizaciones adoptan estándares para el desarrollo de IA. Esta es la ley de inteligencia artificial de la Unión Europea, que clasifica muchas áreas de aplicación en la categoría prohibida. La Unión Europea prohíbe cualquier aplicación que tenga como objetivo manipular a las personas o aprovechar su edad o vulnerabilidad debido a discapacidades físicas o mentales. También está prohibido utilizarlo para evaluar o calificar la credibilidad de las personas si fomenta un trato desfavorable o desfavorable. También se prohibirá la identificación biométrica masiva en tiempo real en lugares accesibles al público, De los cuales la búsqueda ocasional de personas desaparecidas o delincuentes particularmente peligrosos puede ser una excepción sujeta a la obtención de un permiso, esto se explica. El funcionamiento de la IA debe probarse antes de que se introduzca ampliamente. Durante las pruebas exhaustivas, tarde o temprano aparecerá si algo distorsiona el proceso de toma de decisiones. Otras empresas de software ya se han especializado en esta actividad.

El hecho de que usemos datos reales no significa que no introduzcamos sesgos en nuestra IA. Como se ha mencionado más arriba Los datos son recopilados por personas, por lo que las prácticas sociales desleales pueden ingresar fácilmente al conjunto de datos. Para compensar esto, a menudo surge como posibilidad el uso de datos sintéticos. Los datos sintéticos se generan mediante simulación por computadora y no se toman al medir el mundo físico.

Los datos sintéticos, aunque sintéticos, reflejan el mundo real, por lo que son excelentes para entrenar modelos de IA.

Fuente de la imagen de portada: Getty Images

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio