En la actualidad, el volumen de datos generado por sistemas de información, redes sociales, sensores IoT, aplicaciones móviles, plataformas de e-commerce y otros entornos digitales crece de manera exponencial. Esta situación ha impulsado la evolución de las bases de datos tradicionales hacia nuevas arquitecturas, modelos de almacenamiento y herramientas analíticas capaces de gestionar eficientemente grandes volúmenes de datos, tanto estructurados como no estructurados, en tiempo real o cuasi real.
Desde la perspectiva académica y profesional, y considerando la línea prioritaria de la Unidad Académica, Innovación y tecnología, se vuelve imprescindible que los docentes y profesionales de carreras informáticas y afines actualicen sus conocimientos y competencias en torno al manejo avanzado de bases de datos, al procesamiento de grandes volúmenes de datos, Big Data, y a las técnicas de descubrimiento de conocimiento, Minería de Datos, alineándose con los requerimientos del mercado laboral y los desafíos tecnológicos actuales.
Este curso de posgrado tiene como propósito brindar una formación sólida y aplicada que permita a los profesionales comprender y aplicar modelos avanzados de bases de datos (bases orientadas a grafos, columnares, NoSQL, distribuidas, entre otros), optimizar esquemas de almacenamiento y procesamiento de datos a gran escala y aplicar técnicas de minería de datos para extraer patrones, tendencias y conocimiento útil desde repositorios de datos complejos.
El dictado de este curso en el marco de nuestra carrera de Ingeniería en Sistemas de Información responde a las demandas emergentes de formación continua, a la necesidad de profundizar contenidos específicos de gran relevancia actual y a la visión estratégica de nuestra institución de consolidarse como referente en áreas clave de la transformación digital.
Con esta propuesta, se apunta a fortalecer las capacidades profesionales y de innovación tecnológica de nuestros docentes, así como a contribuir al desarrollo regional y nacional mediante la formación de recursos humanos altamente calificados en una de las áreas más dinámicas y con mayor proyección del campo informático.
Objetivos
- Analizar las características de los datos masivos y su impacto en el diseño de bases de datos.
- Comprender arquitecturas de procesamiento distribuido y modelos NoSQL.
- Explorar técnicas básicas de minería de datos aplicadas a grandes volúmenes de información.
- Promover el uso crítico y reflexivo de herramientas en función de los objetivos de análisis.
- Favorecer el diseño de prácticas pedagógicas basadas en proyectos y datos abiertos.
- Mantener actualizados los contenidos con técnicas y herramientas de tendencia y gran aplicación práctica en el área de los sistemas de información e informática.
- Revisar conceptos de Minería de datos en áreas que se relacionan diferentes aspectos de la Ingeniería.
- Conocer los diferentes esquemas de bases de datos no relacionales y sus implementaciones.
- Integrar estos conocimientos al contexto de la toma de decisiones basada en datos, tanto en sectores productivos como en ámbitos de investigación.
Cronograma
- Fecha y hora: 18/02/2026 – 17:00 hs
- Duración: 2 horas sincrónicas + 2 horas asincrónicas
- Teoría: Se introducen los principales cambios en la gestión de datos a partir del crecimiento exponencial de la información. Se abordan los modelos tradicionales de bases de datos y se contextualiza el surgimiento del paradigma Big Data, analizando sus características (las 5V +) y su impacto en la arquitectura de sistemas. Nuevos desafíos en el diseño y gestión de datos.
- Práctica: Análisis de casos reales (Netflix, redes sociales, otros). Trabajo colaborativo para identificar las V del Big Data.
- Lectura guiada + mini cuestionario de reflexión.
- Fecha y hora: 19/02/2026 – 17:00 hs
- Duración: 2 horas sincrónicas + 2 horas asincrónicas
- Teoría: Se presentan los fundamentos de los modelos NoSQL, diferenciando los enfoques documental, clave-valor y columnares. Se introducen herramientas como MongoDB y Cassandra, y se explican las arquitecturas de procesamiento distribuido, incluyendo Hadoop y Spark, en relación con las necesidades actuales de escalabilidad.
- Práctica: Exploración con MongoDB Atlas (gratuito y en la nube). Se guía a los docentes a crear una colección pequeña en MongoDB, insertar documentos y realizar consultas básicas con el lenguaje Mongo Query.
- Análisis de un caso de uso con MongoDB (lectura técnica breve).
- Fecha y hora: 24/02/2026 – 17:00 hs
- Duración: 2 horas sincrónicas + 2 horas asincrónicas
- Teoría: Se profundiza en el modelado de datos en contextos no relacionales. Se analizan formatos como JSON, Avro y Parquet, así como las mejores prácticas para diseñar esquemas adecuados para entornos distribuidos y almacenamiento flexible.
- Práctica: Inicio de actividad de rediseño de un modelo relacional clásico (por ejemplo, un sistema de gestión de biblioteca) a formato documental JSON.
- Continuación y culminación de actividad de rediseño de un modelo relacional clásico (por ejemplo, un sistema de gestión de biblioteca) a formato documental JSON. Se trabaja en grupo sobre una consigna compartida y se presentan las decisiones de modelado.
- Fecha y hora: 26/02/2026 – 17:00 hs
- Duración: 2 horas sincrónicas + 2 horas asincrónicas
- Teoría: Se exploran técnicas de consultas SQL avanzadas y su aplicación en bases distribuidas mediante herramientas como Apache Hive y/o SparkSQL. Se discuten lenguajes alternativos como Pig, y se reflexiona sobre las diferencias en complejidad y optimización en estos entornos.
- Práctica: SQL avanzado (joins, subconsultas, funciones agregadas). Introducción a SparkSQL.
- Uso de SQL avanzado en una base de datos relacional simulada en SQLite (puede hacerse en línea o con Jupyter/Colab). Se proponen ejercicios con subconsultas, agrupamientos y expresiones regulares.
- Fecha y hora: 03/03/2026 – 17:00 hs
- Duración: 2 horas sincrónicas + 2 horas asincrónicas
- Teoría: Se abordan los procesos de integración de datos, su transformación y carga en entornos masivos. Se presentan conceptos de ETL/ELT y pipelines de datos, mencionando herramientas como Apache NiFi, Airflow y Kafka, con foco en la comprensión del flujo de datos en tiempo real.
- Práctica: Simulación de pipeline de datos con Google Sheets + Python en Colab. Se presenta un flujo simple de carga, limpieza y transformación de datos con pandas, simulando un proceso ETL sencillo. Alternativa: mostrar visualmente cómo se configura un flujo en Apache NiFi (video guiado + discusión).
- Simulación de ETL básico con Python y pandas en Colab (extracción, limpieza y carga desde Google Sheets).
- Fecha y hora: 05/03/2026 – 17:00 hs
- Duración: 2 horas sincrónicas + 2 horas asincrónicas
- Teoría: Se introducen los principios de la minería de datos, incluyendo las técnicas de clustering, reglas de asociación y árboles de decisión. Se analizan las etapas de preparación de los datos y la evaluación de modelos, utilizando ejemplos con Weka o scikit-learn.
- Práctica: Aplicación de clustering con Weka (offline) o scikit-learn en Colab. Los docentes aplican k-means a un pequeño dataset de ejemplo (p. ej., flores de Iris o resultados académicos simulados) y analizan los resultados obtenidos.
- Aplicación de clustering con k-means en un dataset simple (Iris o similar) usando scikit-learn en Colab. Interpretación visual de resultados.
- Fecha y hora: 10/03/2026 – 17:00 hs
- Duración: 1 hora sincrónica + 3 horas asincrónicas
- Teoría: Se estudian los principios de visualización efectiva en contextos de gran volumen de datos. Se presentan herramientas como Power BI, Tableau y Apache Superset (a nivel demostrativo), y se reflexiona sobre la construcción de narrativas visuales para comunicar hallazgos relevantes.
- Práctica: Creación de una visualización simple en Power BI o Google Data Studio a partir de un dataset educativo abierto. Se discuten buenas prácticas de diseño y se proponen mejoras colectivas.
- Desarrollo de aplicación con Power BI, y enfoque de análisis crítico de una visualización.
- Fecha y hora: 12/03/2026 – 17:00 hs
- Duración: 2 horas sincrónicas
- Teoría: Se realiza una puesta en común de los conocimientos adquiridos mediante la presentación de proyectos integradores. Se discuten tendencias emergentes como Data Lakehouses, análisis en tiempo real e inteligencia artificial aplicada a grandes volúmenes de datos. Este encuentro está destinado al cierre y retroalimentación colectiva.
- Práctica: Presentación de miniproyectos o propuestas didácticas por parte de los docentes, utilizando alguno de los recursos o enfoques vistos. Se incluyen devoluciones cruzadas y reflexión sobre cómo llevar lo aprendido a sus propias asignaturas.
Clase 1 · Bases de Datos Avanzadas y el Paradigma Big Data
Clase 2 · Modelos NoSQL y Arquitecturas Distribuidas
Clase 3 · Diseño y Modelado para Big Data
Clase 4 · Consultas Avanzadas y Lenguajes para Datos Masivos
Clase 5 · Integración y Procesamiento de Datos (ETL/ELT)
Clase 6 · Introducción a la Minería de Datos
Clase 7 · Visualización y Narrativas con Datos
Clase 8 · Trabajo Integrador y Tendencias Futuras
Disertantes
Martínez Roxana
Doctora en Ciencias Informáticas - UNLPDestinatarios