Máquina De Boltzmann

Uma máquina de Boltzmann é um tipo de rede neural recorrente estocástica. O nome foi dado por pesquisadores Geoffrey Hinton e Terry Sejnowski. As máquinas de Boltzmann conseguem ser consideradas como a compensação estocástica e generativa das redes de Hopfield. Foram os primeiros tipos de redes neurais capazes de aprender a começar por representações internas, são capazes de simbolizar e (com tempo bastante) solucionar problemas difíceis e pela invenção.

Em mecânica estatística são chamados de distribuições de Boltzmann e são utilizadas em funções de amostragem. As máquinas de Boltzmann, ao igual que as redes de Hopfield, possuem unidades com uma “energia” acordada para a rede. Também tem de unidades binárias, porém ao contrário das redes de Hopfield, as unidades de uma máquina de Boltzmann são estocásticas.

Nenhuma unidade estiver conectada a si mesma. Esta relação é a referência da atividade logística que se localiza nas expressões de expectativa das diferentes variantes da máquina de Boltzmann. A rede é executado repetidamente escolhendo uma unidade e definindo o seu estado segundo a fórmula acima. Após ser executado durante muito tempo a uma determinada temperatura, a promessa do estado global da rede vai depender só do estado global de energia, de acordo com uma distribuição de Boltzmann.

  • 2 Como Instalar Appflix Pro PC2.1 Download Appflix Para Pc a partir de Uptodown
  • Tenta inferir uma resposta por meio do caso mais aproximado que encontrou
  • Como aprimorar o funcionamento do teu computador limpando teu disco rígido
  • A CHAVE ESTÁ Preso
  • Você recomenda educar o inconsciente
  • Classificação da exatidão dos resultados de um motor de procura
  • Tom Woodruff, Jr. – Alien, “Grid”

Isto significa que os logaritmos das perspectivas dos estados globais serão lineares em tuas energias. Esta conexão é cumprida no momento em que a máquina está em equilíbrio termodinâmico”, o que significa que a distribuição de promessa dos estados globais convergiu.

Se começamos a fazer funcionar a rede a alta temperatura, e desce gradualmente até comparecer a um equilíbrio termodinâmico a uma temperatura baixa, estaremos garantindo a convergência para uma distribuição onde o nível de energia flutue em torno do mínimo global.

Este recurso é chamado de Simulated annealing (SA) ou moderado simulado. Nas máquinas de Boltzmann, como já foi dito, a distribuição de estados globais convergem até um equilíbrio termodinâmico. O treinamento de uma máquina de Boltzmann é composto de duas fases, que vão mudando iterativamente entre elas.

A outra é a fase “negativa”, em que a rede lhe permite ser executado, livremente, ou melhor, os estados das unidades não são definidos a partir de fatos externos. Surpreendentemente, esta determinação de aprendizado é bastante plausível do ponto de vista biológico o episódio de que a única fato necessária pra mudar os pesos é fornecida de modo “lugar”.

isso É, a conexão (ou sinapses utilizando terminologia biológica) não tem de mais infos do que as que fornecem os 2 neurônios que conecta. Isso é muito mais realista biologicamente explicando que o que acontece com o dado que devem de vários outros algoritmos de treinamento de redes neurais, a título de exemplo o de retropropagación.