Apresentar de forma introdutória algumas questões e idéias centrais nesse novo domínio da Estatística.
1. Identificação de padrões, classificação e predição. 2. Cadeias estocásticas com memória de alcance variável, cadeias de Markov ocultas, campos aleatórios de Markov, grafos aleatórios, modelos de Ising e estados de Gibbs. 3. Método de Monte Carlo markoviano, amostrador de Gibbs. 4. Seleção estatística de modelos. AIC, BIC, MDL e a her´titica da inclinação. 5. Redes neurais. Algoritmo "Deep learning". 7. Modelos gráficos e redes bayesianas.
1. Introdução: identificação de padrões, classificação e predição em sequências de matrizes. O problema do aprendizado supervionado e não supervisionado. 2. Modelos probabilísticos básicos: cadeias estocásticas com memória de alcance variável, cadeias de Markov ocultas, campos aleatórios de Markov, grafos aleatórios, modelos de Ising e estados de Gibbs. 3. Ferramentas básicas: método de Monte Carlo markoviano, amostrador de Gibbs. 4. Seleção estatística de modelos. Algoritmo Contexto. Máxima verossimilhança penalizada, critérios AIC e BIC. A navalha de Ockam e o princípio MDL. A heurística da inclinação. 5. Redes neurais. O algoritmo "Deep Learning". 7. Modelos gráficos e redes bayesianas. Identificação de grafos de interação entre componentes
T. Hastie, R.Tibshirani, J. Friedman. The Elements of Statistical Learning: Data Mining, Inference and Prediction. Springer E. Alpaydin. Introduction to Machine Learning. MIT Press N. Tishby and N. Zaslavsky. Deep learning and the information bottleneck principle. In 2015 IEEE Information Theory Workshop (ITW), pages 1–5, April 2015.