Publicado el junio 25th, 2019 | por webmaster
0Cómo podemos construir una Inteligencia Artificial más ética
El campo de la inteligencia artificial está en pleno auge, para darnos cuenta de ello solo basta ver proyectos como Watson, de IBM; AlphaZero; de Deep Mind; Alexa, de Amazon; o Siri, de Apple. Sin embargo, debido al creciente impacto de la IA en las vidas de las personas, la preocupación en cuanto a cómo tomar un enfoque ético para los futuros desarrollos también va en aumento.
La construcción de una inteligencia artificial ética requiere tanto un enfoque moral en el desarrollo de la tecnología como un plan para que los sistemas de IA sean éticos en sí mismos. Por ejemplo, los desarrolladores de vehículos autopilotados deberían considerar sus consecuencias sociales, en temas como garantizar que los autos por sí mismos sean capaces de tomar decisiones éticas.
Cuando se trata de preguntas que los desarrolladores de tecnologías basadas en inteligencia artificial deberían estarse formulando, existen algunos asuntos importantes que han de tener en cuenta, como:
¿Deberíamos preocuparnos de que las máquinas puedan volverse más inteligentes que los seres humanos? ¿Qué podemos hacer al respecto?
¿Qué necesitamos hacer para prevenir que las nuevas aplicaciones de IA creen un desempleo masivo?
¿Cómo una aplicación de IA, como el reconocimiento facial, puede ser usada para el control social, de una manera que restringe la privacidad y la libertad de los seres humanos?
¿Cómo pueden los sistemas de IA incrementar o posiblemente disminuir las brechas sociales y la desigualdad?
¿Cuáles son los riesgos asociados al desarrollo de robots asesinos?
En todos estos cuestionamientos sin duda alguna nos encontramos con que tienen en común una gran necesidad por un enfoque en la ética que nos ayude a responder estas preguntas.
Desafíos éticos
En un principio, aplicar ética a la inteligencia artificial es difícil debido a la falta de un constructo ético aceptado por la mayoría. A continuación veremos algunos de los desafíos que tendremos que enfrentar para construir una inteligencia artificial con ética.
Las teorías éticas son altamente controversiales. Algunas personas prefieren seguir los principios éticos establecidos por los textos religiosos. Por su parte, los filósofos se encuentran discutiendo sobre si la ética debe basarse en los derechos y deberes individuales, el bien mayor para el mayor número de personas o actuar de una manera virtuosa.
Actuar de una forma ética requiere satisfacer los valores morales, pero no existe un consenso en cuanto a cuáles valores son los más importantes o incluso a qué conocemos como valor. Sin tener en cuenta los valores que las personas consideran importantes cuando buscan actuar de una manera ética, es imposible alinear los valores de los sistemas de inteligencia artificial con los de los humanos.
Para construir un sistema de IA que se comporte de un modo ético, las ideas respecto a los valores, a lo que está bien y lo que está mal necesitan ser lo suficientemente precisas para que puedan ser implementadas en los algoritmos, pero la precisión y los algoritmos están muy ausentes en las deliberaciones éticas actuales.
El plan para construir una IA más ética
Por fortuna, libros como Natural Philosophy, escrito por Paul Thagard Ph.D., presentan una descripción de la ética que puede hacer frente a estos desafíos.
La teoría ética más plausible es la que evalúa las acciones en función de la medida en que satisfacen las necesidades vitales de los seres humanos. Las necesidades vitales son aquellas que se requieren para hacer posible la vida humana y se distinguen de las necesidades ocasionales, como un automóvil elegante. Las necesidades vitales incluyen no solo las biológicas, como el techo, la comida y el agua: sino también las psicológicas, basadas en la evidencia, como la autonomía, la relación con otras personas y la competencia para lograr objetivos personales y sociales.
En consecuencia, los valores apropiados que deben tomarse en cuenta en las decisiones éticas son estas necesidades humanas vitales. La justificación de tales valores no proviene de textos religiosos o razón pura, sino de investigaciones empíricas que demuestran que resolver estas necesidades es, de hecho, crucial para la vida humana.
La evaluación de diferentes acciones con respecto a qué tan bien cumplen con las diversas necesidades de cada persona en particular es un proceso muy complejo, pero se puede realizar mediante algoritmos que equilibran una multitud de restricciones basadas en qué acciones satisfacen la mayoría de las necesidades de la mayoría de las personas. Dichos algoritmos se pueden calcular de manera eficiente mediante redes neuronales y otros métodos.
Procedimiento ético
En consecuencia, las personas responsables de tomar las decisiones sobre el desarrollo de la inteligencia artificial pueden tomar nota del siguiente procedimiento ético, que además podría ser implementado en máquinas reales:
Enumerar las acciones alternativas que vale la pena considerar en una situación particular. La deliberación ética evaluará estas acciones y elegirá en función de consideraciones morales, no solo de preferencias personales. Por ejemplo, los funcionarios del gobierno pueden considerar si hacer que los robots militares sean más inteligentes y autónomos.
Identificar a todas las personas afectadas por estas acciones, incluidas las generaciones futuras, así como a las personas que viven actualmente. Para los robots asesinos, se ha de tomar en cuenta a las personas que podrían salvarse así como a las que serían asesinadas.
Para cada acción, evaluar en qué medida ayuda a promover o impedir la satisfacción de las necesidades vitales humanas. Para los robots asesinos, las consecuencias a considerar incluyen la supervivencia y otras necesidades de todas las personas potencialmente afectadas por armas inteligentes.
Traducir la promoción de necesidades por acciones en restricciones positivas, así como incompatibilidades entre acciones en restricciones negativas. El resultado es una gran red de satisfacción de restricciones que se puede evaluar de manera computacional.
Maximizar la satisfacción de las restricciones y elegir las acciones que cumplan mejor con las necesidades humanas.
Necesidad humana en lugar de codicia
Mahatma Gandhi dijo: «El mundo tiene suficiente para satisfacer las necesidades de todos, pero no la codicia de todos». Al igual que otras decisiones éticas, las decisiones sobre la inteligencia artificial y las tomadas por máquinas inteligentes deben operar al servicio de las necesidades humanas. Actualmente, se toman demasiadas decisiones codiciando riqueza y poder. La IA ética puede florecer si pone las necesidades humanas universales por encima de la codicia personal.
Publicamos nuevo contenido todos los días, no olvides seguirnos en nuestras redes sociales, Twitter, Facebook y LinkedIn para ver nuestros artículos más recientes antes que nadie.
Fuente: Psychology Today.