[EstudiantesMatemática] Fwd: Curso de Posgrado "APRENDIZAJE AUTOMATICO Y APLICACIONES"

Bruno Yemini brunoy en gmail.com
Lun Mar 4 16:28:01 UYST 2013


----------  Mensaje reenviado  ----------

Asunto: Curso de Posgrado "APRENDIZAJE AUTOMATICO Y APLICACIONES"
Fecha: Lun 04 Mar 2013, 15:23:57
De: Gonzalo Perera <gonzaloperera.cyt en gmail.com>


Queridos colegas y compañeros:

1. Agradezco difundir el presente anuncio. Muy particularmente, a quienes
pueden hacerlo, mediante reenvio a todos en cmat y todos en iesta, pero también a
otros ámbitos donde pueda haber eventuales interesados.

2. *A PARTIR DEL MARTES 2 DE ABRIL y HASTA EL JUEVES 11 DE JULIO*, en el
horario de Martes y Jueves de 17 a 19 hrs en el IMERL; en el marco de la
Maestria en Ingeniería Matemática, ofreceré el curso "APRENDIZAJE
AUTOMATICO Y APLICACIONES ( es decir, lo  habitualmente denominado "Machine
Learning").

3. Invito a los interesados a ponerse en contacto conmigo, para prever
cantidad de asistentes, confeccionar lista automatica de noticias y aclarar
cualquier inquietud.

4. En el curso habrá unas 8 horas adicionales, hacia el final, en horario
extra y a convenir, dedicadas a estudio de casos específicos, que serán
presentados por otros colegas.

5. Es aconsejable familiaridad con el software R o similar (puede ser
Matlab y sus variantes, por ejemplo) y es indispensable formacion basica en
Probabilidad y Estadistica (por mas detalles, consultar).

6. El temario del curso se adjunta al final, la referencia básica es una
monografía de la cual soy co-autor y que será provista a los asistentes.

Agradeciendo difusión, los saludo a todos
Gonzalo

________________________

Temario:

1 Introduccion general., problemas clásicos.



2. Aprendizaje supervisado. Secuencia de Entrenamiento y Validación.
Overfitting. Validación Cruzada. Ejemplos.



3. Aprendizaje no supervisado . Ejemplos. Ley de Benford. Aplicación en
detección de anomalías. Ejemplos



4. Métodos basados en Arboles: CART, comportamiento ante la secuencia de
entrenamiento, Bagging. Random Forests.



5. Métodos basados en núcleos. SVM. Derivación, Aplicaciones.



6 Modelos Aditivos. GAM. Algoritmos de selección de smoothers.
Interpretación.



7. Boosting. Algoritmos alternativos



8. Componentes Principales en contexto no lineal. Importancia de variables.
Manifold Learning. Ejemplos.



9. Teoría de Vapnik-Chervonenkis. Cotas generales de error.



10. Aplicaciones específicas.
-------------------------------------------------------


Más información sobre la lista de distribución Listaestudiantes