Descripción
Inteligencia Artificial Generativa (IAG) y Ciencia de Datos son el resultado de varias décadas de investigación y desarrollo. Los recientes avances en estas disciplinas representan vastas repercusiones como las que tuvo la invención de la imprenta, la revolución industrial, la energía eléctrica, los automóviles, la aviación, la radio y TV, las vacunas, computadoras, internet, teléfonos celulares, etcétera.
Los prodigiosos avances en Ciencia, Tecnología, Ingeniería, Matemáticas y Computación (CTIM+C), particularmente en los últimos veinte años, impulsaron nuestra existencia hacia la era digital. Hoy en día llevamos en nuestros bolsillos dispositivos que están conectados a la nube digital las 24 horas del día, los 7 días de la semana, enviando datos a la nube, donde es necesario realizar nuevos tipos de análisis de datos a escalas y niveles de seguridad nunca antes vistos.
La ciencia y la ingeniería se han convertido en esfuerzos multidisciplinarios, unificando la teoría, el modelado, la experimentación y la simulación. Estando bien orquestadas, estas interacciones sinérgicas abren oportunidades de innovación para quienes entienden la oportunidad, y están preparados para emprender el reto.
De los 7.200 millones de personas que habitan nuestro planeta, sólo una fracción (45%) disfruta de los
beneficios de Internet. La cantidad de "cosas" (dispositivos inteligentes) que se conectarán a través
de Internet en los próximos años es mucho mayor. Esas "cosas" serán diseñadas por profesionales con el conocimiento,
las habilidades y los recursos para aprovechar esta innovación tan enorme, transformadora y continua.
Una nueva generación de estudiantes nacidos este siglo está llegando a nuestras universidades. Estos estudiantes entran en nuestras aulas viviendo una existencia de red social continuamente conectada a la nube digital. Las nuevas generaciones necesitan aprender a operar dentro y fuera de esa red. Como educadores, nuestra obligación es encontrar formas innovadoras de educar y transformar esa existencia, creando experiencias de aprendizaje
que ayuden a los estudiantes a entender cómo operar en ese futuro. Los nuevos profesionales que emerjan de nuestras instituciones deberán definir y construir nuevas tecnologías y plataformas de software, desde el dispositivo en el bolsillo hasta la nube, con aplicaciones que abarquen finanzas, transporte, salud, aviación, gestión de energía, energía y agua, petróleo y gas, etc.
En su libro "El Cuarto Paradigma", Jim Gray dijo "...todo lo relacionado con la ciencia está cambiando
debido al impacto de las tecnologías de la información y la avalancha de datos..."
( Referencia: https://en.wikipedia.org/wiki/Jim_Gray_(computer_scientist) ). Jim nos habló de la evolución de la ciencia en términos de cuatro paradigmas:
empírico -> teórico -> computacional -> basado en datos
Con los recientes logros de la IA Generativa, es claro que estamos avanzando hacia el quinto paradigma de la ciencia.
La innovación es el resultado de invenciones que ayudan a crear impacto económico y valor social. En nuestros días la innovación avanza vertiginosamente. Por lo tanto, los objetivos de este proyecto son claros y simples:
-
Corto Plazo: Ofrecer un diplomado que enseñe a los participantes los temas que se enlistan en la
sección "Contenido y Calendarización" en este documento.
-
Largo Plazo: Crear un foro para entablar un diálogo con estudiantes, educadores, y líderes en educación, a fin de sentar las bases para un proceso educativo que nos permita preparar los recursos humanos para la gran transformación tecnológica que se avecina.
El desarrollo de estas disciplinas no ocurrió de forma súbita. Es el producto de avances interdisciplinarios logrados en Ciencias de Datos, y Aprendizaje de Máquinas. Estas áreas también se han beneficiado de avances en conocimientos fundamentales en Matemáticas, Estadística, Neurociencias, Ingeniería, Ciencias de la Computación, etc.
La intención de este proyecto es cubrir Inteligencia Artificial y Ciencia de Datos manteniendo el perfil
interdisciplinario de su origen, basándose en tres pilares que sustentan el flujo típico de actividades
relacionadas con el análisis de datos: (1) Fundamentos de IA, (2) Progra Lógica para IA, (3) "Software"
para IA.
Las actividades en los tres pilares son:
-
FUNDAMENTOS: El primer paso es hacer lo que John Tuckey llamó "EDA" "Exploratory Data Analysis", para obtener los datos que se van a estudiar, a fin de tener una idea del tamaño, la configuración, el tipo de valores en las variables, la interacción con otras fuentes de datos, el rango de valores, cuáles parámetros serán usados para hacer predicciones, qué resultados se desea obtener, qué clase de pre-procesamiento será necesario a fin de identificar valores fuera de rango, cómo compensar celdas sin datos, etc. Para todo esto se requiere un buen nivel de fundamentos en matemáticas, estadística, probabilidad, etc., ya que el siguiente paso es determinar cuáles métodos podrán ser utilizados para lograr los resultados deseados.
-
PROGRALÓGICA: El siguiente paso es ir de los conceptos metodológicos a los algoritmos, para lo cual también se requiere identificar el lenguaje de programación en el cual se implementarán los algoritmos. Se debe también determinar la estructura del programa, el estilo de programación (OOP, funcional), cuáles librerías se usarán para la limpieza y verificación de datos, para el análisis, las herramientas de desarrollo de software, de visualización de resultados, ambientes de programación y desarrollo, etc.
-
SOFTWARE PARA IA (Ingeniería de Computación): Hoy en día no es raro que el volumen de datos exceda
la capacidad de una sola computadora. Cuando eso ocurre es necesario crear o usar un sistema que pueda
distribuir el proceso haciendo uso de varias computadoras. Hay varios ejemplos de arquitecturas para
proceso distribuido: Beowulf clusters basados en protocolos de Open/MP, Map/Reduce y su versión Hadoop,
y más recientemente, Spark, ambiente desarrollado en UC Berkeley, durante un periodo en el que el autor
de este documento fue director de proyecto con MSFT Research. Durante las sesiones se presentarán
ejemplos de proceso distribuido, y se cubrirá el tema más a fondo usando como ejemplo el sistema
"SparkCito" desarrollado en Go por el expositor.
Los temas se cubrirán durante sesiones en línea y en laboratorios. Cabe enfatizar que el objetivo final de un análisis es encontrar un modelo que sea capaz de generalizar, es decir, que pueda hacer predicciones correctas cuando se le presenten datos nunca antes vistos. Con
frecuencia hay situaciones en las que la teoría debe adaptarse para resolver aspectos prácticos durante el análisis. Es por eso que el balance entre
entrenamiento de modelos y su validación es más arte que ciencia. Aunque en teoría la precisión del entrenamiento aumenta con más ejemplos, la realidad es que la precisión de validación no siempre mejora. Es por eso que en este curso se recalca el aspecto práctico de análisis, dando múltiples ejemplos de análisis con datos compilados durante experimentos.
Objetivos
Metas
-
Proporcionar al participante las bases teóricas para el entendimiento de Ciencia de Datos e Inteligencia Artificial
-
Que el participante sea capaz de realizar el Análisis de Datos de acuerdo a los Fundamentos
-
Que el participante sea capaz de programar en los lenguajes que se mencionan, utilizando el enfoque proporcionado en este Diplomado
-
Crear un foro para entablar un diálogo con estudiantes, educadores, y líderes en educación, a fin de sentar las bases para un proceso educativo que nos permita preparar los recursos humanos para la gran transformación tecnológica que se avecina
Requisitos
Requisitos de ingreso:
Los participantes deben ser:
-
Estudiantes de pregrado cursando el último año del programa a nivel universitario en las siguientes áreas: Ingeniería y Ciencias de la Computación, Sistemas, Matemáticas Aplicadas, Actuaría, con promedio mínimo de 8 en escala de 0 a 10.
-
Estudiantes de postgrado en programas de Maestría y/o Doctorado en las áreas mencionadas con promedio mínimo de 8 en escala de 0 a 10.
-
Profesionales trabajando en Gobierno y/o el Sector Privado, que tengan dominio en las básicas como Probabilidad, Estadística, Algebra Lineal, Cálculo, y conocimiento de lenguajes de programación (Python, Java, Go, Julia) y que necesiten actualización formal en Ciencias de Datos, Aprendizaje de Máquinas, Inteligencia Artificial.
Los participantes deben contar con:
-
Conocimiento y dominio del idioma Inglés
-
Conocimiento de matemáticas, en particular:
-
Cálculo Diferencial e Integral
-
Álgebra Lineal, en particular métodos de "Single Value Decomposition" y "Principal Component
Analysis"
-
Métodos y técnicas básicas de análisis de datos como regresión lineal y clasificación logística.
-
Conocimiento de optimización, en particular de “Descenso Estocástico por Gradiente”.
-
Conocimientos básicos de estadística y probabilidad
-
Conocimiento de ambientes de programación y desarrollo como Visual Studio Code.
-
Conocimiento del sistema operativo Linux
-
Conocimiento de lenguajes de programación: Python, Go, Julia.
-
Conocimiento avanzado/medio del lenguaje Python, incluyendo bibliotecas como Numpy, scipy, pandas
Los interesados en este Diplomado deberán realizar el Quiz y aprobarlo con un mínimo de 70 puntos
El Quiz y su resultado son una guía para usted; tienen el fin de saber que se cumplen con los
conocimientos mínimos para comprender sin dificultad los temas y las dinámicas que tendrá el Diplomado.
En el caso de que usted obtenga menos de 70 puntos aprobados y aún así desea inscribirse, le recomendamos
hacerlo únicamente si considera que puede prepararse y cubrir las áreas de oportunidad a trabajar,
antes del inicio Diplomado. Una vez realizado el pago no habrá devoluciones.
Por favor tenga en cuenta que el profesor no se detendrá a explicar temas y conceptos que se espera
que usted conozca, entienda y domine.
Este es el Quiz:
https://forms.gle/TvFg9wkbepHEHDaR6
Requisitos de permanencia:
-
80% de asistencia a las sesiones presenciales y síncronas
-
Participación en las sesiones
Requisitos de egreso:
-
Redactar un documento en donde el participante indique, ¿Qué aprendió durante el curso? ¿Qué habilidades desarrolló para su ejercicio profesional? ¿Qué temas considera que se pueden agregar para robustecer el diplomado? y si tiene sugerencias para ofertas futuras de diplomados ¿Cuáles?
-
Mínimo calificación final de 8.0
Procesos de evaluación
-
Cuestionarios en línea: 20%
-
Proyectos para que los participantes ejerciten y profundicen progresivamente sus conocimientos y habilidades en los temas que se irán tratando durante las sesiones: 80%
Al principio de ciertas sesiones, habrá cuestionarios en línea que los participantes deberán contestar durante los primeros minutos de la sesión. Las preguntas serán sobre temas cubiertos en sesiones anteriores. El director del diplomado diseñó un sistema en línea (escrito en Google apps script, una variante de js) que toma las respuestas de los participantes, revisa si las respuestas son correctas o no, y calcula una calificación (1..10) para cada participante. Al final del diplomado se usará ese sistema para dar la calificación final a los participantes.
Mín / Máx de alumnos: Mínimo
15, máximo
200.
La apertura del curso está sujeta al mínimo de inscritos.