Envoltório de Markov
Em estatística e aprendizado de máquina, o envoltório de Markov para um nó em um grafo probabilístico contém todas as variáveis que ligam o nó do restante da rede. Isso significa que o envoltório de Markov de um nó é o único conhecimento necessário para prever o comportamento desse nó e de seus filhos. O termo foi cunhado pela Judea Pearl em 1988.[1]
Em uma rede bayesiana, os valores dos pais e filhos de um nó evidentemente fornecem informações sobre esse nó. No entanto, os pais de seus filhos também precisam ser incluídos, pois podem ser usados para explicar o nó em questão. Em um campo aleatório de Markov, o envoltório de Markov para um nó é simplesmente seus nós adjacentes (ou vizinhos). Em uma rede de dependência, o envoltório Markov para um nó é simplesmente o conjunto de seus pais.
O envoltório Markov para um nó em uma rede bayesiana, denotada aqui por , é o conjunto de nós composto por pais de filhos de outros pais das crianças.
Todo conjunto de nós na rede é condicionalmente independente de quando condicionado no aparelho , ou seja, quando condicionado no envoltório Markov do nó : em outras palavras, dados os nós em , A é condicionalmente independente dos outros nós no grafo. Formalmente, essa propriedade pode ser gravada, para nós distintos e , do seguinte modo
Ver também
[editar | editar código-fonte]Referências
- ↑ Pearl, Judea (1988). Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference. Morgan Kaufmann. Col: Representation and Reasoning Series. San Mateo CA: [s.n.] ISBN 0-934613-73-7