La analítica avanzada está tomando cada vez más importancia dentro de las organizaciones que se están apoyando en técnicas de Inteligencia Artificial (AI) para optimizar y automatizar sus procesos operativos. Algunas de las necesidades de negocio que se pueden resolver con AI/ML en las organizaciones son: la predicción de la demanda, detección de fraudes, comprobación y clasificación de documentos, clasificaciones de clientes basado en sus niveles de riesgos, reconocimiento facial y de voz de empleados,  agilizar procesos de ventas en e-commerce con recomendaciones personalizadas, mejorar la atención al cliente, entre otros.

 

Muchos de estos modelos están siendo creados en los equipos locales de los científicos de datos sin permitir que estos sean ejecutados automáticamente o sin posibilidades de escalar a los tamaños que las empresas requieren que sean ejecutados.

 

En el portafolio de servicios de AWS ya existen ciertos servicios desarrollados y listos para usar como Amazon forecast que permiten generar predicciones de la demanda de venta de artículos basándonos en los datos históricos o Amazon Rekognition que permite analizar imágenes identificando emociones, objetos, personas, entre otros.

 

En nuestra experiencia en diferentes industrias, hemos observado que muchas organizaciones no cuentan con marcos definidos (frameworks de Inteligencia Artificial o Mach) donde se lleve a cabo el flujo de trabajo de extremo a extremo, junto con controles de seguridad y gobierno que nos permitan gestionar riesgos como accesos no permitidos, datos sin encriptación, mantener datos limpios para trabajar el modelo, autoescalado de máquinas sin necesidad de intervención humana, replicación y backup de datos.

 

Es aquí donde Amazon Sagemaker puede ser clave, ya que es un servicio de AWS completamente administrado que permite a desarrolladores y científicos de datos preparar, crear, entrenar e implementar modelos de machine learning a escala; sin embargo es necesario tener en cuenta algunas consideraciones para que el uso de esta plataforma proporcione buenos resultados.

 

En primer lugar, es crítico conocer el caso de uso del modelo, es decir una vez decidida y definida la necesidad del negocio a solucionar por medio de AI/ML, es necesario evaluar si es posible dar solución con algún otro servicio dentro de AWS. Por ejemplo, si el objetivo es generar recomendaciones personalizadas en un e-commerce para un grupo de usuarios, se podría considerar usar Amazon Personalize, pero si no sólo quiere utilizar un servicio (como una caja negra) ó en su organización tienen capacidades internas de Analítica Avanzada y por el contrario desean tener mayor control del modelo y poder modificar parámetros para una potencial mejora, lo siguiente sería optar por trabajar con alguno de los algoritmos integrados de AWS Sagemaker en caso de que alguno se ajuste al caso de uso.

 

Si no es viable alguna de las opciones anteriores y lo más conveniente es desarrollar el modelo desde cero, se debe evaluar el lenguaje de programación que se va a utilizar, ya que Sagemaker permite trabajar con Python y R únicamente. Con lo anterior definido es importante tener en cuenta otros factores como:

 

  • El tipo de instancia (o máquina virtual) más adecuada según los requisitos del proyecto.
  • Cuánta memoria se requiere, si es necesario contar con GPU o sólo CPU
  • En qué región dentro de AWS se va a trabajar.
  • Opciones de ejecución del modelo de ML por demanda o de forma permanente.
  • Escalabilidad del modelo.
 

Amazon SageMaker no sólo mejora la velocidad de implementación de Machine Learning de las empresas, sino también todas las fases del aprendizaje automático.

 

Si usted quiere entender cómo llevar a cabo un proyecto ágil migrando sus modelos de Inteligencia Artificial (AI) con AWS o quiere conocer más sobre nuestras experiencias y los servicios de AWS, póngase en contacto con nosotros aquí.