Especialización en Big Data
Permanent URI for this collectionhttps://repositorio.pascualbravo.edu.co/handle/pascualbravo/2792
Browse
Browsing Especialización en Big Data by Author "Briñez de León, Juan Carlos"
Now showing 1 - 2 of 2
- Results Per Page
- Sort Options
Item Análisis de calidad de datos de clientes a partir aprendizaje no supervisado en el sector de consumo.(2024) Gutiérrez Montes, Oscar Mario; Gomez Miranda, Ingrid Natalia; Briñez de León, Juan Carlos; Fonnegra Tarazona, Rubén Darío; Roldan Colorado, Sebastián CamiloEste trabajo presenta un análisis de la calidad de los datos de clientes en una importante empresa del sector de consumo, utilizando un modelo de aprendizaje no supervisado basado en técnicas de clustering. El análisis se desarrolla en cuatro etapas principales, comenzando con la evaluación inicial de la calidad de los datos mediante la herramienta SAP Information Steward, que sirve como fuente de datos para la implementación del modelo. El estudio se centra en un problema crítico para las empresas: la mala calidad de los datos, la cual genera pérdidas económicas significativas, afecta la credibilidad organizacional y aumenta la insatisfacción de los clientes. Con el objetivo de abordar esta problemática, se propone una metodología para diagnosticar la calidad de los datos de clientes, permitiendo identificar deficiencias y establecer las bases para la implementación de un sistema de gestión de calidad de datos. La metodología presentada combina herramientas estadísticas y modelo de Machine Learning para evaluar y clasificar los datos en función de su calidad. Este enfoque no solo proporciona un diagnóstico claro, sino que también facilita la toma de decisiones estratégicas para optimizar la gestión de los datos y mejorar la efectividad de las operaciones empresariales. Abstract: This work presents an analysis of the quality of customer data in an important company in the consumer sector, using an unsupervised learning model based on clustering techniques. The analysis is carried out in four main stages, starting with the initial assessment of data quality using the SAP Information Steward tool, which serves as the data source for the model implementation. The study focuses on a critical problem for companies: poor data quality, which generates significant economic losses, affects organizational credibility and increases customer dissatisfaction. With the aim of addressing this problem, a methodology is proposed to diagnose the quality of customer data, allowing deficiencies to be identified and the foundations to be established for the implementation of a data quality management system. The methodology presented combines statistical tools and a Machine Learning model to evaluate and classify data based on its quality. This approach not only provides a clear diagnosis, but also facilitates strategic decision making to optimize data management and improve the effectiveness of business operations.Item Aplicación de un modelo de regresión logística para predecir inconsistencias en la descarga de información durante el proceso de vinculación de clientes al servicio de energía eléctrica(Institución Universitaria Pascual Bravo, 2024) Vélez Quintana, Mateo; Briñez de León, Juan CarlosPara una empresa de servicios públicos domiciliarios la vinculación de clientes al servicio de energía eléctrica es un proceso vital en el negocio de la energía eléctrica por lo tanto es necesario garantizar la seguridad y calidad en este proceso. La verificación de solicitudes de conexión al servicio de energía eléctrica toma largos tiempos, es propensa a errores y genera altos costos operativos, además de insatisfacción entre los usuarios. Este proyecto propone el uso de herramientas de Machine Learning para automatizar la identificación de inconsistencias en los cobros de materiales y actividades y creando un modelo que permita predecir inconsistencias, mejorando la eficiencia y eliminando la aleatoriedad en las verificaciones, lo que optimizará recursos, reducirá quejas y fortalecerá la experiencia del cliente. El objetivo general es desarrollar un sistema predictivo que reduzca los tiempos manuales en un 90%, detecte inconsistencias de manera anticipada y permita estrategias de mejora continua. El método incluye la extracción y análisis de datos del sistema transaccional entre enero y octubre de 2024, para crear un modelo que identifique las solicitudes con posibles problemas. El balanceo y análisis de datos atípicos fueron de gran relevancia en el estudio. Aunque modelos como AdaBoostClassifier y XGBClassifier ofrecieron alta precisión, fueron descartados por problemas de sobreajuste. Se elige el modelo basado en Regresión Logistica con un accuracy de 86% ya que se asegura que no esta memorizando.
