Área de Concentração: 45133
Concentration area: 45133
Criação: 18/11/2022
Creation: 18/11/2022
Ativação: 18/11/2022
Activation: 18/11/2022
Nr. de Créditos: 8
Credits: 8
Carga Horária:
Workload:
Teórica (por semana) |
Theory (weekly) |
Prática (por semana) |
Practice (weekly) |
Estudos (por semana) |
Study (weekly) |
Duração | Duration | Total | Total |
---|---|---|---|---|---|---|---|---|---|
4 | 2 | 4 | 12 semanas | 12 weeks | 120 horas | 120 hours |
Docentes Responsáveis:
Professors:
Jefferson Antonio Galves
Florencia Graciela Leonardi
Aline Duarte de Oliveira
Objetivos:
Fornecer técnicas de inferência para algumas classes de processos estocásticos.
Justificativa:
Processos Estocásticos aparecem como modelos naturais para fenômenos de natureza dinâmica e para sistemas espaciais. É importante, portanto, dispor de métodos capazes de estimar, a partir de observações desses fenômenos, características importantes desses modelos. Num outro contexto, processos estocásticos tem sido utilizados também como ferramentas de cálculo para inferência, por exemplo, em simulações tipo Monte-Carlo através de cadeias de Markov.
Conteúdo:
1) Inferência estatística para cadeias de Markov. Estimação de máxima verossimilhança. Identificação da ordem da cadeia; 2) Inferência estatística para cadeias estocásticas com memória de alcance variável. O algoritmo Contexto; 3) Seleção de árvores de contextos através do critério BIC. O algoritmo CTW; 4) Inferência estatística para cadeias de Markov ocultas; 5) Estados de Gibbs. Identificação de grafos de interação e análise de verossimilhança do modelo Ising; 6) Simulações de Monte-Carlo através de Cadeias de Markov. Dinâmicas de Glauber, amostrador de Gibbs, algoritmo de Metropolis; 7) Algoritmos de simulação perfeita.
Content:
1) Statistical inference for Markov chains. Maximum likelihood estimation. Estimation of the order of the chain. 2) Statistical inference for stochastic chains with memory of variable length. The algorithm Context. 3) Context tree selection using the Bayesian Information Criterion (BIC). The algorithm CTW. 4) Statistical inference for hidden Markov models. 5) Gibbs states. Interaction graph selection and maximum likelihood estimation for the Ising model. 6) Simulations using Monte-Carlo Markov chains (MCMC). Glauber dynamics, Gibbs sampler, Metropolis algorithm. 7) Perfect simulation algorithms.
Forma de Avaliação:
A avaliação será realizada através de seminários, projetos e provas. A nota final será calculada pela média obtida pelo aluno nos instrumentos de avaliação. Nas duas primeiras semanas de aula o docente fixará as datas e o número de provas, projetos e seminários, assim como o critério de atribuição do conceito final.
Bibliografia:
1) I. Csiszár and Z. Talata (2006) Context tree estimation for not necessarily finite memory processes, via BIC and MDL. IEEE Trans. Inform. Theory, 52(3):1007–1016, 2006. 2) I. Csiszár and Z. Talata (2006) Consistent estimation of the basic neighborhood of Markov random fields. The Annals of Statistics, 34(1):123–145, 2006. 3) Guttorp, P. (1993). Stochastic Modelling of Scientific Data. Chapman and Hall; 4) Billingsley, P. (1961). Statistical Inference for Markov Processes. Univ. of Chicago Press; 5) Rabiner, L.R. (1989) A tutorial on hidden Markov models and selected applications in speech recognition. Proceedings of the IEEE 77(2), 257-286 6) Rissanem, J. (1983) A universal data compression system IEEE Trans. Inform. Theory 29 no. 5, 656–664, 7) Willems, Shtarkov, and Tjalkens (1995), The Context-Tree Weighting Method: Basic Properties, 41, IEEE Transactions on Information Theory. 8) Willems, Shtarkov, and Tjalkens (1995), The Context-Tree Weighting Method: Basic Properties, 41, IEEE Transactions on Information Theory. 9) Robert, C. and Casella, G. Monte Carlo statistical methods. Springer Texts in Statistics. 2004.
Idiomas ministrados:
Languages taught:
Tipo de oferecimento da disciplina:
Presencial
Class type:
Presencial