Industria 4.0

Publicado el agosto 20th, 2019 | por webmaster

0

Inteligencia Artificial para principiantes: Una guía completa

Hace 10 años, si no trabajabas en el sector tecnológico y mencionabas el término “Inteligencia Artificial” en una junta de trabajo, lo más posible es que tu contraparte se riera en tu cara. Esto sucedía porque la mayoría asociaba el concepto a máquinas de ciencia ficción con mentes sensibles como HAL, de Odisea en el Espacio.

Hoy en día, es uno de los términos más recurrentes en el mundo empresarial e industrial. La tecnología de inteligencia artificial es un eje crucial de mucha de la transformación digital que se está produciendo ahora mismo, a medida que las organizaciones se están posicionando para capitalizar las crecientes cantidades de datos que se están generando y recolectando a partir de esta.

Entonces, cabe preguntarnos cómo se ha dado este cambio en el paradigma. Se debe en parte a la revolución de Big Data, ya que el exceso de datos ha llevado a una intensificación en la investigación sobre cómo estos pueden ser procesados, analizados y cómo actuar frente a estos. Ya que las máquinas pueden hacer este trabajo mucho mejor que los humanos, el enfoque ha estado en entrenarlas para que lo realicen de la manera más inteligente posible.

El aumento del interés en la investigación en este campo, en la academia, la industria y la comunidad, ha llevado a progresos y avances que están mostrando el potencial de la tecnología de generar un cambio disruptivo en (casi) todos los sectores económicos. Ya nadie se está riendo.

¿Qué es la Inteligencia Artificial?

El concepto de lo que define la inteligencia artificial ha cambiado a lo largo de la historia, pero en el fondo siempre ha existido la idea de construir máquinas capaces de pensar como lo hacen los seres humanos.

Después de todo, se ha comprobado que los seres humanos poseen una capacidad única para interpretar el mundo que les rodea y utilizar la información que creen conveniente para efectuar cambios. Por tanto, si queremos construir máquinas que nos ayuden a hacer esto de un modo más eficiente, tiene sentido usarnos como plano base.

Entonces, podríamos pensar que la Inteligencia Artificial puede simular la capacidad de pensamiento abstracto, creativo y deductivo de los seres humanos, y en particular la habilidad de aprender, utilizando la lógica binaria y digital de los ordenadores.

El trabajo de investigación y desarrollo en Inteligencia Artificial se divide en dos ramas. Una está etiquetada como IA aplicada, que utiliza estos principios de simulación del pensamiento humano para llevar a cabo una tarea específica. La otra se conoce como IA generalizada, que busca desarrollar inteligencias de máquina que puedan encargarse de cualquier tarea, al igual que una persona.

La investigación sobre IA aplicada ya está proporcionando avances en sus diversos campos de estudio, desde la física cuántica, donde se usa para modelar y predecir el comportamiento de sistemas compuestos por miles de millones de partículas subatómicas; hasta la medicina, donde se aplica para diagnosticar pacientes con base en datos genómicos.

En la industria, la inteligencia artificial está siendo empleada en sectores como el financiero para aspectos como la detección de fraude o la mejora del servicio al cliente, al predecir lo que los consumidores pueden necesitar. Por su parte, en la fabricación está siendo utilizada para gestionar la fuerza laboral y los procesos de producción, así como para predecir fallas antes de que ocurran a través del mantenimiento predictivo.

Los ciudadanos de a pie no escapan a esta tendencia, ya que están adoptando cada vez con más frecuencia tecnología impulsada por inteligencia artificial. Desde asistentes de voz como Siri o Alexa a vehículos autopilotados, que muchos predicen van a superar el número de autos manejados manualmente.

La IA generalizada va un poco más lejos. Para llevar a cabo una simulación completa del cerebro humano se requeriría una comprensión más completa del órgano que la que tenemos en la actualidad, y más potencia informática que la disponible para los investigadores por lo general.

Sin embargo, este puede no ser el caso por mucho tiempo, dada la velocidad con la que la tecnología informática está evolucionando. Una nueva generación de tecnología de chip de computadora conocida como procesadores neuromórficos se está diseñando para ejecutar de manera más eficiente el código del simulador cerebral. Y sistemas como la plataforma de computación cognitiva Watson, de IBM, utilizan simulaciones de alto nivel de procesos neurológicos humanos para llevar a cabo una gama cada vez mayor de tareas sin que se les enseñe específicamente cómo hacerlas.

¿Cuáles han sido los desarrollos clave en Inteligencia Artificial?

Todos estos avances han sido posibles debido al enfoque en imitar los procesos de pensamiento humano. El campo de investigación que ha sido más fructífero en los últimos años es lo que se conoce como «aprendizaje automático». De hecho, se ha vuelto tan integral para la IA contemporánea que los términos «inteligencia artificial» y «aprendizaje automático» a veces se usan de manera indistinta.

Sin embargo, este es un uso impreciso del lenguaje, y la mejor manera de pensar el aprendizaje automático es como una representación del estado actual de la técnica en el campo más amplio de la IA. La base del aprendizaje automático es que, en lugar de tener que aprender a hacer todo paso a paso, las máquinas, si pueden programarse para pensar como nosotros, pueden aprender a trabajar observando, clasificando y aprendiendo de sus errores, tal como lo hacemos nosotros. .

La aplicación de la neurociencia a la arquitectura de los sistemas de TI ha llevado al desarrollo de redes neuronales artificiales, y aunque el trabajo en este campo ha evolucionado durante el último medio siglo, es solo hasta ahora que las computadoras con la potencia adecuada han estado disponibles para hacer estas tareas a diario. Este es el escenario actual para cualquier persona, excepto aquellos con acceso a las herramientas especializadas más costosas.

Quizás el factor impulsor más importante ha sido la explosión de datos que se ha desatado desde que la sociedad se fusionó con el mundo digital. Esta disponibilidad de datos, desde lo que compartimos en las redes sociales hasta los datos de máquinas generados por sensores conectados e IoT, ha llevado a que la tecnología ahora tenga un universo de información disponible para aprender de manera más eficiente y tomar mejores decisiones.

¿Cuál es el futuro de la Inteligencia Artificial?

La respuesta a esto dependerá de a quién lo preguntes, y te encontrarás con muchas vertientes de pensamiento en este campo.

Existen temores reales de que el desarrollo de inteligencia que iguale o supere la nuestra, teniendo la capacidad de trabajar a velocidades mucho más altas, podría tener implicaciones negativas para el futuro de la humanidad. Estos temores no solo han sido reflejados en películas distópicas como Matrix o Terminator, también han sido difundidos por respetados científicos como Stephen Hawking.

Incluso si los robots no llegasen a erradicarnos o convertirnos en baterías vivientes, un escenario menos dramático pero de igual modo espeluznante es que la automatización de los trabajos llevará a un cambio profundo en la sociedad. Y de nosotros depende si ese cambio será para mejor o peor.

Esta comprensible preocupación ha llevado a que gigantes tecnológicos como Google, IBM, Microsoft, Facebook y Amazon crearan el año pasado el colectivo Partnership in AI. Este grupo está investigando y defendiendo la implementación ética de la Inteligencia Artificial, además de establecer parámetros para la futura investigación y desarrollo de sistemas robóticos y automatizados.

 

Publicamos nuevo contenido todos los días, no olvides seguirnos en nuestras redes sociales, TwitterFacebook y LinkedIn para ver nuestros artículos más recientes antes que nadie.

Fuente: Forbes.

 


Sobre el Autor



Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Volver Arriba ↑