Publicado el enero 30th, 2019 | por webmaster
0Cómo abordar el problema del sesgo en la Inteligencia Artificial
Uno de los problemas en la sociedad que la inteligencia artificial se suponía iba a resolver, era el sesgo. Después de todo, es menos probable que las computadoras tengan puntos de vista inherentes sobre temas como la raza, el género o la orientación sexual.
Eso era cierto en los días en que, por regla general, las computadoras solo podían hacer lo que les decíamos. La implementación del aprendizaje automático, gracias a la explosión de Big Data y la aparición de computadoras asequibles con suficiente capacidad de procesamiento para manejarlo, han cambiado todo eso.
En los viejos tiempos, el término «basura adentro, basura afuera» resumía de forma concisa la importancia de la alta calidad en los datos. Cuando le damos a las computadoras la información incorrecta con la que trabajar, es poco probable que los resultados que obtengamos sean útiles.
En aquel entonces, esto era un problema para los programadores y analistas informáticos. Hoy en día, cuando las computadoras toman decisiones de manera rutinaria acerca de si nos invitan a las entrevistas de trabajo, somos elegibles para una hipoteca o candidatos para ser vigilados mediante servicios de seguridad, es un problema para todos.
Por ejemplo, un estudio descubrió que un algoritmo de inteligencia artificial utilizado por las autoridades de libertad condicional en los Estados Unidos para predecir la probabilidad de que los delincuentes reincidieran estaba sesgado en contra de los negros.
Se desconoce cómo se produjo esto, pues el funcionamiento de los algoritmos no se ha puesto a disposición para auditorías independientes. El estudio descubrió que el sistema sobreestimó la probabilidad de que los delincuentes de raza negra cometan más delitos después de completar su sentencia, al tiempo que subestima la probabilidad de que los delincuentes blancos hagan lo mismo.
La democratización de la inteligencia artificial sin duda tiene el potencial de hacer mucho bien al poner en nuestras manos un software inteligente de autoaprendizaje. Pero también existe el peligro real de que, sin la capacitación adecuada sobre evaluación de datos y la posibilidad de sesgo, los grupos más vulnerables de la sociedad y sus derechos puedan verse afectados.
Es probable que los sistemas de inteligencia artificial sesgados se conviertan en un problema cada vez más extendido a medida que la tecnología se traslade de los laboratorios de ciencia de datos al mundo real.
Es posible que la inteligencia artificial sea tanto la solución como la causa de este problema. Los investigadores de IBM están trabajando en algoritmos automatizados de detección de sesgos, que están capacitados para imitar los procesos humanos contra los sesgos que utilizamos al tomar decisiones y mitigar nuestros propios prejuicios incorporados.
Esto incluye evaluar la consistencia con la que nosotros tomamos decisiones. Si hay una diferencia en la solución elegida para dos problemas distintos, a pesar de que los fundamentos de cada situación sean similares, entonces puede haber sesgo a favor o en contra de algunas de las variables no fundamentales. En términos humanos, esto podría surgir como racismo, xenofobia, sexismo o discriminación por edad.
Si bien este es un trabajo interesante y vital, el potencial que tiene el sesgo de profundizar las desigualdades es mayor, a niveles que pueden no ser tan fáciles de solucionar con algoritmos.
La Dra. Rumman Chowdhury, líder de Accenture para la inteligencia artificial responsable, describió que puede haber situaciones en las que los datos y los algoritmos estén limpios, pero los sesgos de la sociedad aún pueden generar problemas en su funcionamiento. Afirmó que «con el sesgo de la sociedad, puedes tener datos perfectos y un modelo perfecto, pero tenemos un mundo imperfecto».
«Piensa en el uso de la inteligencia artificial en la contratación. Usas todos tus datos históricos para entrenar a un algoritmo sobre quién debería ser contratado y por qué. Luego, analizas su currículum vitae o miras la cara de la persona mientras la estás entrevistando. Suponiendo que la única razón por la que se contrata y promueve a las personas es meritocracia pura, y sabemos que no es verdad”.
«Entonces, en este caso, no hay nada malo con los datos y con el modelo, lo que está mal es que los prejuicios arraigados en la sociedad han llevado a destinos desiguales en el lugar de trabajo, y no es algo que pueda solucionarse con un algoritmo.»
En términos muy simplificados, un algoritmo podría elegir a un hombre blanco de mediana edad para llenar una vacante basándose en el hecho de que otros hombres blancos de mediana edad fueron antes contratados para la misma posición y promovidos luego. Esto sería pasar por alto el hecho de que la razón por la que fue contratado y promovido se debió más al hecho de que es un hombre blanco de mediana edad, en lugar de que era bueno en el trabajo.
Chowdhury enumera tres pasos específicos que las organizaciones pueden tomar para minimizar el riesgo de perpetuar los prejuicios sociales.
Lo primero es observar los algoritmos en sí mismos y asegurarse de que nada sobre la forma en que están codificados perpetúa el sesgo. Esto es particularmente necesario cuando la inteligencia artificial está en forma constante haciendo predicciones que están fuera de sintonía con la realidad.
En segundo lugar, hay que considerar las formas en que la inteligencia artificial puede ayudar a mitigar el riesgo de datos sesgados. Los algoritmos de detección de sesgo de IBM podrían jugar un papel importante aquí.
En tercer lugar, debemos asegurarnos de que nuestra casa esté en orden, no podemos esperar que un algoritmo de inteligencia artificial que se ha entrenado con datos que provienen de la sociedad sea mejor que esta, a menos que así lo hayamos diseñado explícitamente.
Esto lleva a la discusión de la regulación de la inteligencia artificial, que será responsable de establecer los parámetros dentro de los que esta opera, enseñando a las máquinas cuáles son los datos válidos para aprender, y dónde los sesgos sociales incorporados podrían limitar su capacidad para tomar decisiones que sean valiosas y éticas.
Líderes tecnológicos como Google, Facebook y Apple, formaron conjuntamente la Alianza para la Inteligencia Artificial en 2016 para alentar la investigación sobre la ética de la inteligencia artificial, incluidas las cuestiones de sesgo. Parte del trabajo implica informar a los legisladores, pero este enfoque «de arriba hacia abajo» puede no producir soluciones para todos los problemas e incluso detener la innovación.
Chowdhury dice: «Lo que no queremos es que cada proyecto de inteligencia artificial en una empresa deba ser juzgado por algún grupo de gobierno, eso no hará que las iniciativas sigan adelante». Yo llamo a esa modelo «patrulla policial», donde tenemos a la policía tratando de detener y arrestar a los criminales. Eso no crea una buena cultura para el comportamiento ético «.
La carga de la regulación y la aplicación de la ley tampoco debe ponerse solo en la línea del frente, es decir, en los propios científicos de datos, argumenta Chowdhury. «Sí, el científico de datos desempeña un papel, el investigador de inteligencia artificial desempeña un papel, pero en una corporación, hay muchas partes involucradas. Ponemos mucha responsabilidad sobre los hombros del científico de datos, pero no deben asumirla toda. ”
Básicamente, si la sociedad está en una etapa en la que estamos listos para democratizar la inteligencia artificial al ponerla a disposición de todos, debemos estar preparados para democratizar también la supervisión y la regulación de su ética. Chowdhury se refiere a este concepto como el modelo de Guardián del Fuego.
«Piensa en esto como lo que pasaría si hubiese un incendio en su edificio en este momento, todos saben qué hacer, se reúnen afuera en un lugar preestablecido y alguien activará la alarma; no apagarás el fuego, pero sabes cómo responder”.
«Eso es lo que quiero ver en la gobernanza de los sistemas de inteligencia artificial, todos tienen un papel que desempeñar, los roles de cada uno son un poco diferentes, pero todos comprenden cómo plantear problemas éticos».
Esto solo funcionará si hay fe en que alguien apagará el fuego; nadie se molestaría en llamar a los bomberos si supieran que no tienen la capacidad y la motivación para hacer su trabajo. Sin duda alguna, una regulación de arriba hacia abajo será una parte necesaria para abordar la cuestión del sesgo en la inteligencia artificial.
Pero construir una cultura de información y rendición de cuentas en toda la organización dará una oportunidad mucho mayor de detectar y detener, sesgos en los datos, algoritmos o sistemas antes de que se perpetúen y se vuelvan perjudicial.
Publicamos nuevo contenido todos los días, no olvides seguirnos en nuestras redes sociales, Twitter, Facebook y LinkedIn para recibir nuestros artículos más recientes de primera mano.
*Fuente: Forbes.