[EstudiantesMatemática] Fwd: Curso de Posgrado "APRENDIZAJE AUTOMATICO Y APLICACIONES"
Bruno Yemini
brunoy en gmail.com
Lun Mar 4 16:28:01 UYST 2013
---------- Mensaje reenviado ----------
Asunto: Curso de Posgrado "APRENDIZAJE AUTOMATICO Y APLICACIONES"
Fecha: Lun 04 Mar 2013, 15:23:57
De: Gonzalo Perera <gonzaloperera.cyt en gmail.com>
Queridos colegas y compañeros:
1. Agradezco difundir el presente anuncio. Muy particularmente, a quienes
pueden hacerlo, mediante reenvio a todos en cmat y todos en iesta, pero también a
otros ámbitos donde pueda haber eventuales interesados.
2. *A PARTIR DEL MARTES 2 DE ABRIL y HASTA EL JUEVES 11 DE JULIO*, en el
horario de Martes y Jueves de 17 a 19 hrs en el IMERL; en el marco de la
Maestria en Ingeniería Matemática, ofreceré el curso "APRENDIZAJE
AUTOMATICO Y APLICACIONES ( es decir, lo habitualmente denominado "Machine
Learning").
3. Invito a los interesados a ponerse en contacto conmigo, para prever
cantidad de asistentes, confeccionar lista automatica de noticias y aclarar
cualquier inquietud.
4. En el curso habrá unas 8 horas adicionales, hacia el final, en horario
extra y a convenir, dedicadas a estudio de casos específicos, que serán
presentados por otros colegas.
5. Es aconsejable familiaridad con el software R o similar (puede ser
Matlab y sus variantes, por ejemplo) y es indispensable formacion basica en
Probabilidad y Estadistica (por mas detalles, consultar).
6. El temario del curso se adjunta al final, la referencia básica es una
monografía de la cual soy co-autor y que será provista a los asistentes.
Agradeciendo difusión, los saludo a todos
Gonzalo
________________________
Temario:
1 Introduccion general., problemas clásicos.
2. Aprendizaje supervisado. Secuencia de Entrenamiento y Validación.
Overfitting. Validación Cruzada. Ejemplos.
3. Aprendizaje no supervisado . Ejemplos. Ley de Benford. Aplicación en
detección de anomalías. Ejemplos
4. Métodos basados en Arboles: CART, comportamiento ante la secuencia de
entrenamiento, Bagging. Random Forests.
5. Métodos basados en núcleos. SVM. Derivación, Aplicaciones.
6 Modelos Aditivos. GAM. Algoritmos de selección de smoothers.
Interpretación.
7. Boosting. Algoritmos alternativos
8. Componentes Principales en contexto no lineal. Importancia de variables.
Manifold Learning. Ejemplos.
9. Teoría de Vapnik-Chervonenkis. Cotas generales de error.
10. Aplicaciones específicas.
-------------------------------------------------------
Más información sobre la lista de distribución Listaestudiantes