Industria 4.0

Publicado el febrero 6th, 2019 | por webmaster

0

¿Qué depara el futuro para herramientas como Big Data, IA y análisis avanzado?

2018 fue un año sin precedente para la industria tecnológica, con un aumento en la inversión y la innovación en varios sectores, como la inteligencia artificial, big data y el análisis avanzado. Con un 90% de empresas ya invirtiendo en tecnologías de Industria 4.0, el impulso constante muestra inmensas oportunidades de crecimiento, tanto para los proveedores de tecnología como para los clientes a los que atienden.

La empresa de análisis unificado Databricks ve 2019 como el año en el que más compañías resolverán problemas relacionados con datos que han obstaculizado las iniciativas de inteligencia artificial en todas las industrias. Esta perspectiva es compartida por líderes expertos en tecnología emergente, que además nos ofrecen algunas predicciones respecto al uso de estas herramientas.

El talento sigue siendo un foco de atención para la inteligencia artificial

Según Bradley Kent, AVP de analítica de programas en LoyaltyOne, la falta de talento es el factor más importante en el camino hacia la producción. Las personas adecuadas son difíciles de encontrar, costosas y, a menudo, se les pide que sean los «unicornios» en su organización. Ese problema no desaparecerá, pero surgirán más soluciones verticales y los escenarios intentarán automatizar más el proceso.

El procesamiento de datos seguirá siendo el mayor desafío

En la industria se tiende a creer que los científicos de datos pasan la mayor parte del tiempo desarrollando modelos, afirma el CEO y cofundador de Databricks, Ali Ghodsi. A decir verdad, el procesamiento de datos sigue siendo la parte más complicada y lenta de cualquier iniciativa de inteligencia artificial. La naturaleza altamente iterativa de esta tecnología obliga a los equipos de datos a alternar las herramientas de procesamiento de datos con las de aprendizaje automático. Para que las organizaciones tengan éxito, deben integrar una plataforma que unifique estas herramientas dispares.

Optimización del flujo de trabajo de aprendizaje automático

El aprendizaje automático es un desafío de datos, según Matei Zaharia, tecnólogo en jefe y cofundador de Databricks. Las grandes empresas tecnológicas, con datos, recursos y talento ilimitados, han invertido significativamente en el desarrollo de plataformas personalizadas de aprendizaje automático. Sin embargo, ¿qué pasa con el resto? El desarrollo de herramientas para estandarizar el proceso de aprendizaje automático en esencia, haciéndolo repetible sin importar los conjuntos de datos, herramientas o métodos de implementación específicos, definitivamente tendrá un impacto si las organizaciones logran la aplicación de la inteligencia artificial.
La inteligencia artificial se aprovechará en muchos más negocios

La inteligencia artificial ha sido inspiradora para mostrar lo que es posible, según el jefe de ciencia de datos de Quby, Stephen Galsworthy. Hay numerosos ejemplos a lo largo de varios sectores en cuanto a cómo esta tecnología puede transformar los negocios. Sin embargo, existen realidades empresariales diversas y desafíos internos. Entonces, se necesita mucha innovación en torno a las cosas menos atractivas, como las herramientas de optimización de costos, la contabilidad automatizada y la administración de plataformas de big data y análisis.

Desarrollando confianza con inteligencia artificial explicable

En 2018 se hizo un mayor énfasis en el sesgo de datos, la confianza y la transparencia en la inteligencia artificial, una idea que tiene implicaciones sociales, económicas y comerciales. Según Mainak Mazumdar, director de investigación de Nielsen, es fundamental desarrollar una inteligencia artificial que sea explicable, comprobable y transparente. Este camino hacia sistemas confiables comienza con la calidad de los datos utilizados para la capacitación en inteligencia artificial. Este enfoque en los datos etiquetados que pueden verificarse, validarse y explicarse es emocionante, pues la inteligencia artificial explicable puede sentar las bases de los sistemas que pueden generalizarse en todos los casos de uso y ser confiables.

Innovación con datos en tiempo real

Stephen Harrison, un científico de datos del Grupo Rue Gilt, dice que la transmisión en sí misma no es realmente nueva. Sin embargo, la compañía planea aprovecharla para innovaciones significativas en 2019, como recomendaciones en tiempo real basadas en datos actualizados de su gestión de pedidos, seguimiento de clics y otros sistemas. Esto es importante para ellos porque son un sitio minorista, con productos y navegación en línea y comportamientos de compra que cambian por minuto.

El aprendizaje profundo empieza a dar sus dividendos

Según Kamelia Aryafar, directora de algoritmos de Overstock, las innovaciones en aprendizaje profundo crearán muchas nuevas aplicaciones de inteligencia artificial, algunas de las cuales ya están en producción y están produciendo cambios masivos en la industria. Actualmente se está usando en proyectos desde campañas de correo electrónico con taxonomías predictivas hasta módulos de personalización que infieren el estilo del usuario. El aprendizaje profundo continuará mejorando la inteligencia artificial central y los algoritmos de aprendizaje automático.

Resolver los problemas relacionados con los datos comienza por reunir a todos los equipos de datos dentro de una organización. La capacidad de los equipos de ciencia e ingeniería de datos para innovar más rápido se ha visto obstaculizada por la mala calidad de los datos, los complejos entornos de herramientas de aprendizaje automático y los limitados grupos de talentos. Además, la separación organizativa crea fricciones y retrasa los proyectos, convirtiéndose en un impedimento para la naturaleza altamente iterativa de los proyectos de inteligencia artificial.

Al igual que en 2018, las organizaciones que aprovechan el análisis avanzado tendrán una ventaja competitiva, con la capacidad de crear canales de datos a través de varios sistemas de almacenamiento aislados y preparar conjuntos de datos etiquetados para la creación de modelos, lo que permite a las organizaciones usar inteligencia artificial con sus datos existentes y de forma iterativa en conjuntos masivos de datos.

 

Publicamos nuevo contenido todos los días, no olvides seguirnos en nuestras redes sociales, TwitterFacebook y LinkedIn para recibir nuestros artículos más recientes de primera mano.

 

*Fuente: Agility.


Sobre el Autor



Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Volver Arriba ↑