Machine Learning es uno de los conceptos más de moda últimamente en el mundo del tratamiento de los datos. Aparece en medios, se escriben artículos, hay cursos online y libros que tratan de explicar los fundamentos y los detalles más complejos de ésta disciplina profundamente arraigada en la estadística y el álgebra lineal. Muchas de éstas publicaciones lo muestran como uno de los recursos más importantes en el análisis avanzado de datos, y desde SolidQ creemos firmemente en ello.

Sin embargo, Machine Learning no es diferente a cualquier otra herramienta o disciplina de procesamiento de datos, y se enfrenta a retos constantemente. De la misma manera que nos encontramos casos de negocio “estándares”, como la predicción de riesgo de un cliente en seguros o la tasa de abandono de un servicio, también nos encontramos casos “especiales” que requieren de una aproximación algo más cuidada.

Éste es el caso que nos encontramos cuando quisimos predecir valores de la bolsa de Wall Street para unas cuantas empresas del ámbito tecnológico. En esta sesión repasamos las diferentes aproximaciones a problemas de predicción de éste tipo, veremos cómo lo implementamos y evaluamos su utilidad para entender cómo la interpretación del dato es clave en cualquier análisis de datos, y Machine Learning no es una excepción.

 

A continuación, puedes ver la presentación de la charla ‘Jugando a ser rico: Machine Learning para predicción de stocks’ del SolidQ Summit 2018:

0 Shares:
1 comment
  1. Gracias por tu artículo y por compartir la presentación. Quienes nos dedicamos a la formación estamos siempre atentos a nuevos conceptos.
    saludos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like
Leer más

Expresiones, parámetros y funciones en Azure Data Factory

Hay ocasiones, cuando estamos construyendo pipelines con Azure Data Factory, que queremos repetir patrones para extraer y procesar la información cambiando de manera dinámica, en tiempo de ejecución, valores, orígenes/destinos de los datasets, incluso los mismos linked services. Esto es posible mediante el uso de parámetros, expresiones y funciones. Vamos a ver cómo implementarlo con un ejemplo práctico en el que se nos plantea el siguiente supuesto. Se nos ha pedido que extraigamos todos los días los datos del día anterior de distintas tablas del DW a ficheros en un blob storage que además se nombre como la tabla de origen. Si no pudiéramos utilizar contenido dinámico tendríamos que crear dos datasets (uno de origen y otro de destino) y añadir una actividad de copia por cada tabla a exportar.