Em estatística e física estatística, o algoritmo Metropolis-Hastings é um método de Cadeia de Markov Monte Carlo (MCMC) para obter amostras aleatórias a partir de uma distribuição de probabilidade da qual a amostragem direta é difícil. Essa sequência pode ser usada para aproximar a distribuição (por exemplo, para gerar um histograma) ou para calcular uma integral (por exemplo, um valor esperado). Metropolis – Hastings e outros algoritmos MCMC são geralmente usados para amostragem de distribuições multidimensionais, especialmente quando o número de dimensões é alto. Para distribuições unidimensionais, existem outros métodos (por exemplo, amostragem por rejeição adaptativa) que podem retornar amostras independentes, fugindo do problema de amostras autocorrelacionadas inerente aos métodos MCMC.
História
O algoritmo recebeu o nome de Nicholas Metropolis, autor do artigo de 1953 sobre Equação de Cálculos Estatais por Máquinas de Computação Rápida, juntamente com Arianna W. Rosenbluth, Marshall Rosenbluth, Marshall Rosenbluth, Augusta H. Teller e Edward Teller. Este artigo propôs o algoritmo para o caso de distribuições simétricas de propostas, e WK Hastings o estendeu ao caso mais geral em 1970.
Existe alguma controvérsia no que diz respeito ao crédito pelo desenvolvimento do algoritmo. Metropolis cunhou o termo "Monte Carlo" em um artigo anterior com Stanislav Ulam, estava familiarizado com os aspectos computacionais do método e liderou o grupo na Divisão Teórica que projetou e construiu o computador MANIAC I usado nos experimentos em 1952. No entanto, antes de 2003, não havia uma descrição detalhada do desenvolvimento do algoritmo. Então, pouco antes de sua morte, Marshall Rosenbluth participou de uma conferência de 2003 na LANL, comemorando o 50º aniversário da publicação de 1953. Nesta conferência, Rosenbluth descreveu o algoritmo e seu desenvolvimento em uma apresentação intitulada "Gênese do algoritmo de Monte Carlo para mecânica estatística". Esclarecimentos históricos adicionais são feitos por Gubernatis em um artigo de jornal de 2005 recontando a conferência do 50º aniversário. Rosenbluth deixa claro que ele e sua esposa Arianna fizeram o trabalho e que Metropolis não teve nenhum papel no desenvolvimento além de fornecer tempo ao computador.
Intuição
O algoritmo Metropolis–Hastings pode coletar amostras de qualquer distribuição de probabilidade, desde que conheçamos uma função proporcional à densidade de e os valores de possam ser calculados. A exigência de que deve ser apenas proporcional à densidade, e não exatamente igual a ela, torna o algoritmo Metropolis-Hastings particularmente útil, porque calcular na prática o fator de normalização necessário costuma ser extremamente difícil.
O algoritmo Metropolis-Hastings funciona gerando uma sequência de valores de tal maneira que, à medida que mais e mais valores de amostra são produzidos, a distribuição de valores se aproxima mais da distribuição desejada . Esses valores de amostra são produzidos iterativamente, com a distribuição da próxima amostra dependendo apenas do valor atual da amostra (transformando a sequência de amostras em uma cadeia de Markov). Especificamente, a cada iteração, o algoritmo escolhe um candidato para o próximo valor de amostra com base no valor atual da amostra. Então, com alguma probabilidade, o candidato é aceito ou rejeitado. Caso seja rejeitado, o valor do candidato é descartado e o valor atual é reutilizado na próxima iteração. A probabilidade de aceitação é determinado comparando os valores da função dos valores de amostra atuais e candidatos em relação à distribuição desejada .
Para fins de ilustração, o algoritmo Metropolis, um caso especial do algoritmo Metropolis-Hastings, em que a função da proposta é simétrica, é descrito abaixo.
Algoritmo de Metropolis (distribuição simétrica de propostas)
Deixe ser uma função proporcional à distribuição de probabilidade desejada (também conhecida como distribuição de destino).
Inicialização: escolha um ponto arbitrário para ser a primeira amostra e escolher uma densidade de probabilidade arbitrária (às vezes escrito ) que sugere um candidato para o próximo valor da amostra , dado o valor da amostra anterior . Nesta secção, é assumido como simétrico; em outras palavras, ele deve satisfazer . Uma escolha usual é deixar ser uma distribuição gaussiana centrada em , para que aponte para mais perto são mais propensos a serem visitados a seguir, transformando a sequência de amostras em uma caminhada aleatória . A função é chamado de densidade da proposta ou distribuição de salto .
Para cada iteração t :
Gere um candidato para a próxima amostra, escolhendo na distribuição .
Calcule a taxa de aceitação, que será usado para decidir se aceita ou rejeita o candidato. Como f é proporcional à densidade de P, temos que .
Aceite ou rejeite :
Gere um número aleatório uniforme .
E se , aceite o candidato definindo ,
E se , rejeite o candidato e defina em vez de.
Esse algoritmo prossegue ao tentar mover-se aleatoriamente no espaço da amostra, às vezes aceitando as movimentações e às vezes permanecendo no local. Observe que a taxa de aceitação indica a probabilidade da nova amostra proposta em relação à amostra atual, de acordo com a distribuição . Se tentarmos avançar para um ponto mais provável que o ponto existente (isto é, um ponto em uma região de maior densidade de ), sempre aceitaremos a mudança. No entanto, se tentarmos avançar para um ponto menos provável, às vezes rejeitaremos a mudança e, quanto mais a queda relativa na probabilidade, maior a probabilidade de rejeitarmos o novo ponto. Assim, tenderemos a permanecer (e retornar um grande número de amostras de) regiões de alta densidade de , enquanto visitam apenas ocasionalmente regiões de baixa densidade. Intuitivamente, é por isso que esse algoritmo funciona e retorna amostras que seguem a distribuição desejada .
Comparado com um algoritmo como a amostragem por rejeição adaptativa[1] que gera diretamente amostras independentes de uma distribuição, o Metropolis – Hastings e outros algoritmos do MCMC têm algumas desvantagens:
As amostras estão correlacionadas. Embora, a longo prazo, sigam corretamente , um conjunto de amostras próximas será correlacionado entre si e não refletirá corretamente a distribuição. Isso significa que, se queremos um conjunto de amostras independentes, temos que jogar fora a maioria das amostras e coletar apenas a n- amostra, por algum valor de n (geralmente determinado examinando a autocorrelação entre amostras adjacentes). A autocorrelação pode ser reduzida aumentando a largura do salto (o tamanho médio de um salto, que está relacionado à variância da distribuição do salto), mas isso também aumentará a probabilidade de rejeição do salto proposto. Um tamanho de salto muito grande ou muito pequeno levará a uma cadeia de Markov de mistura lenta, ou seja, um conjunto de amostras altamente correlacionado, de modo que um número muito grande de amostras será necessário para obter uma estimativa razoável de qualquer propriedade desejada da distribuição.
Embora a cadeia de Markov eventualmente converja para a distribuição desejada, as amostras iniciais podem seguir uma distribuição muito diferente, especialmente se o ponto de partida estiver em uma região de baixa densidade. Como resultado, normalmente é necessário um período de queima,[2] onde um número inicial de amostras (por exemplo, as primeiras 1000) são jogadas fora.
Por outro lado, os métodos mais simples de amostragem de rejeição sofrem com a " maldição da dimensionalidade ", onde a probabilidade de rejeição aumenta exponencialmente em função do número de dimensões. Metropolis – Hastings, juntamente com outros métodos MCMC, não têm esse problema a esse grau e, portanto, são frequentemente as únicas soluções disponíveis quando o número de dimensões da distribuição a ser amostrada é alto. Como resultado, os métodos MCMC são frequentemente escolhidos para produzir amostras a partir de modelos hierárquicos bayesianos e demais modelos estatísticos de alta dimensionalidade.
Nas distribuições multivariadas, o algoritmo clássico Metropolis-Hastings, conforme descrito acima, envolve a escolha de um novo ponto de amostra multidimensional. Quando o número de dimensões é alto, é difícil encontrar a distribuição de salto adequada a ser usada, pois as diferentes dimensões individuais se comportam de maneiras muito diferentes, e a largura do salto (veja acima) deve ser "perfeita" para todas as dimensões de uma só vez para evitar misturas excessivamente lentas. Uma abordagem alternativa que geralmente funciona melhor nessas situações, conhecida como amostragem de Gibbs, envolve a escolha de uma nova amostra para cada dimensão separadamente das outras, em vez de escolher uma amostra para todas as dimensões de uma só vez. Isso é especialmente aplicável quando a distribuição multivariada é composta por um conjunto de variáveis aleatórias individuais , nas quais cada variável é condicionada apenas a um pequeno número de outras variáveis, como é o caso dos modelos hierárquicos mais comuns. As variáveis individuais são então amostradas uma de cada vez, com cada variável condicionada aos valores mais recentes de todas as outras. Vários algoritmos podem ser usados para escolher essas amostras individuais, dependendo da forma exata da distribuição multivariada: algumas possibilidades são os métodos de amostragem por rejeição adaptativa,[1][3][4][5] o algoritmo de amostragem por metrópole de rejeição adaptativa[6] ou suas melhorias[7][8] (consulte o código do matlab), uma etapa unidimensional simples de Metropolis – Hastings ou amostragem de fatias.
Derivação formal
O objetivo do algoritmo Metropolis – Hastings é gerar uma coleção de estados conforme uma distribuição desejada . Para conseguir isso, o algoritmo usa um processo de Markov, que atinge assintoticamente uma distribuição estacionária exclusiva de tal modo que .
Um processo de Markov é definido exclusivamente por suas probabilidades de transição , a probabilidade de fazer a transição de qualquer estado para qualquer outro estado . O processo possui uma distribuição estacionária única quando as duas condições a seguir são atendidas:
Existência de distribuição estacionária : deve existir uma distribuição estacionária . Uma condição suficiente (mas não necessária) é o equilíbrio detalhado, que exige que cada transição seja reversível: para cada par de estados , a probabilidade de estar no estado e transitar para o estado deve ser igual à probabilidade de estar no estado e transitar para o estado , .
Exclusividade da distribuição estacionária : a distribuição estacionária deve ser única. Isso é garantido pela ergodicidade do processo de Markov, que exige que todo estado (1) seja aperiódico (o sistema não retorna ao mesmo estado em intervalos fixos); e (2) seja positivo recorrente (o número esperado de etapas para retornar ao mesmo estado é finito).
O algoritmo Metropolis-Hastings envolve o desenho de uma cadeia de Markov (construindo probabilidades de transição) que atenda às duas condições acima, de modo que sua distribuição estacionária seja . A derivação do algoritmo começa com a condição de equilíbrio detalhado :
que é reescrita como
A abordagem é separar a transição em duas sub-etapas; a proposta e a aceitação-rejeição. A distribuição da proposta é a probabilidade condicional de caminhar para um estado dado e a distribuição de aceitação é a probabilidade de aceitar o estado proposto e, de fato, permanecer neste. A probabilidade de transição pode ser escrita como o produto deles:
Inserindo essa relação na equação anterior, temos
O próximo passo na derivação é escolher uma taxa de aceitação que atenda à condição acima. Uma escolha comum é a escolha de Metropolis:
Para essa taxa de aceitação do Metropolis , ou ou e, de qualquer forma, a condição é satisfeita.
O algoritmo Metropolis – Hastings consiste, portanto, no seguinte:
Inicialize
Escolha um estado inicial .
Coloque .
Itere
Gere um estado candidato aleatório de acordo com .
Calcule a probabilidade de aceitação .
Aceite ou rejeite :
gere um número aleatório uniforme ;
E se , aceite o novo estado e defina ;
E se , rejeite o novo estado e copie o estado antigo para a frente .
Incremente : coloque .
Desde que as condições especificadas sejam atendidas, a distribuição empírica dos estados salvos vai se aproximar de . O número de iterações () necessário para estimar efetivamente depende de vários fatores, como a relação entre e a distribuição da proposta e a precisão desejada.[9] Para distribuição em espaços de estado discretos, deve ser da ordem do tempo de autocorrelação do processo de Markov.
É importante notar que, em um problema geral, não é óbvio qual distribuição deve-se usar ou o número de iterações necessárias para uma estimativa adequada; ambos são parâmetros livres do método, que devem ser ajustados ao problema específico em questão.
Uso na integração numérica
Um uso comum do algoritmo Metropolis-Hastings é calcular uma integral. Especificamente, considere um espaço e uma distribuição de probabilidade sobre , . Metropolis-Hastings pode estimar uma integral da forma de
Onde é uma função (mensurável) de interesse.
Por exemplo, considere uma estatística e sua distribuição de probabilidade , que é uma distribuição marginal . Suponha que o objetivo seja estimar para na cauda de . Formalmente, pode ser escrito como
e, assim, pode-se estimar estimando primeiro o valor esperado da função indicadora, que é 1 quando e 0 caso contrário. Como está na cauda de , a probabilidade de tomar um estado com na cauda de é proporcional a , que é pequeno por definição. O algoritmo Metropolis-Hastings pode ser usado aqui para amostrar estados (raros) com maior probabilidade e, assim, aumentar o número de amostras usadas para estimar nas caudas. Isso pode ser feito, por exemplo, usando uma distribuição de amostragem favorecer esses estados (por exemplo, com )
Instruções passo a passo
Suponha que o valor mais recente amostrado seja . Para seguir o algoritmo Metropolis-Hastings, pegamos um novo estado proposto com densidade de probabilidade e calculamos um valor
onde
é a razão de probabilidade (por exemplo, a distribuição posterior bayesiana) entre a amostra proposta e a amostra anterior e
é a razão da densidade da proposta em duas direções (de para e vice-versa). Isso é igual a 1 se a densidade da proposta for simétrica. Então o novo estado é escolhido de acordo com as seguintes regras.
Se
De outro modo:
A cadeia de Markov é iniciada a partir de um valor inicial arbitrário , e o algoritmo é executado para muitas iterações até que esse estado inicial seja "esquecido". Essas amostras, que são descartadas, são conhecidas como burn-in . O conjunto restante de valores aceitos de representam uma amostra de valores da distribuição .
O algoritmo funciona melhor se a densidade da proposta corresponder à forma da distribuição de destino , da qual a amostragem direta é difícil (ou seja, ) . Se uma densidade de proposta gaussiana é usado, o parâmetro de variância precisa ser ajustado durante o período de queima. Isso geralmente é feito calculando a taxa de aceitação, que é a fração de amostras propostas que é aceita em uma janela da última amostras. A taxa de aceitação desejada depende da distribuição de destino. No entanto, foi demonstrado teoricamente que a taxa de aceitação ideal para uma distribuição Gaussiana unidimensional é de cerca de 50%, diminuindo para cerca de 23% para uma distribuição Gaussiana -dimensional.
Se for muito pequeno, a cadeia se misturará lentamente (ou seja, a taxa de aceitação será alta, mas amostras sucessivas se moverão lentamente pelo espaço, e a cadeia convergirá apenas lentamente para ) Por outro lado, se for muito grande, a taxa de aceitação será muito baixa porque é provável que as propostas cheguem a regiões com uma densidade de probabilidade muito menor. será muito pequena e, novamente, a cadeia convergirá muito lentamente. Geralmente, a distribuição da proposta é ajustada para que os algoritmos aceitem na ordem de 30% de todas as amostras - de acordo com as estimativas teóricas mencionadas no parágrafo anterior.
↑ abGilks. «Adaptive Rejection Sampling for Gibbs Sampling». Journal of the Royal Statistical Society. Series C (Applied Statistics). 41: 337–348. JSTOR2347565. doi:10.2307/2347565
↑Gilks. «Adaptive Rejection Metropolis Sampling within Gibbs Sampling». Journal of the Royal Statistical Society. Series C (Applied Statistics). 44: 455–472. JSTOR2986138. doi:10.2307/2986138
Premier's PlateSport Calcio TipoSquadre di club FederazioneAsian Football Confederation Paese Australia Nuova Zelanda OrganizzatoreA-League Cadenzaannuale Aperturadicembre Chiusuraluglio Partecipanti12 FormulaStagione regolare StoriaFondazione2005-2006 Numero edizioni15 Detentore Melbourne City Record vittorie Sydney FC (4) Edizione in corsoA-League Men 2022-2023 Trofeo o riconoscimento Modifica dati su Wikidata · Manuale Il Premier's Plate è il trofeo assegnato al...
Short story by Stephen KingQuitters, Inc.Short story by Stephen KingCountryUnited StatesLanguageEnglishGenre(s)Horror, short story, SatirePublicationPublished inNight ShiftPublisherDoubledayMedia typePrint (Paperback)Publication date1978 Quitters, Inc.[1] is a short story by Stephen King published as part of his 1978 short story collection Night Shift. Unlike most other stories in this book, Quitters, Inc. had been previously unpublished until February 1978 under Doubleday Publish...
Щодо інших людей з таким самим іменем та прізвищем див. Микита Алексєєв. Микита Алексєєв Народився 27 грудня 1981(1981-12-27) (41 рік)Мурманськ, РРФСР, СРСР Зріст 196 см Вага 103 кг Позиція правий нападник Кидок лівий Клуб КХЛКол. команди Сєвєрсталь ЧереповецьТампа-Бей ЛайтнінгАванга...
Не следует путать с Арт Москвой — ежегодной ярмаркой современного искусства. АРХ Москва Отрасль Архитектура Место проведения Гостиный Двор, Москва (Москва, Россия) Дата первого проведения 1995 год Организатор Выставочная компания «Экспо-Парк» Статус Активна Сайт arch...
بيارني ريس معلومات شخصية الميلاد 3 أبريل 1964 (العمر 59 سنة)الدنمارك الطول 1.86 م (6 قدم 1 بوصة) الجنسية الدنمارك الزوجة آن دورثي تانديروب الحياة العملية المهنة دراج نوع السباق سباق الدراجات على الطريق بلد الرياضة الدنمارك الجوائز ورقة شجر الغار الفضية ...
Een parkeer en reis-voorziening (Engels: park and ride), vaak aangeduid als P&R of P+R, is een parkeervoorziening bij een halte of station die bedoeld is voor automobilisten die vervolgens met het openbaar vervoer verder reizen. Ook in de buurt van opritten van autosnelwegen worden parkeervoorzieningen aangelegd waar automobilisten kunnen overstappen op het openbaar vervoer of carpool-reizen. De aanleg van deze infrastructuur wordt gezien als een middel om de congestie te verminderen. Tev...
Equus namadicus FosilTaksonomiKerajaanAnimaliaFilumChordataKelasMammaliaOrdoPerissodactylaFamiliEquidaeTribusEquiniGenusEquusSpesiesEquus namadicus lbs Equus namadicus adalah sebuah spesies prasejarah dari genus equus. Spesies tersebut berasal dari zaman Pleistosen dan ditemukan di Sungai Narmada, India. Spesies tersebut sezaman dan mungkin berkerabat dengan spesies Equus sivalensis. Referensi B.J. MacFadden, Fossil Horses, 1992 J. Curke, A Roman Frontier Post and its People, The Fort of News...
Pedendang topeng Status konservasi Terancam (IUCN 3.1) Klasifikasi ilmiah Kerajaan: Animalia Filum: Chordata Kelas: Aves Ordo: Gruiformes Famili: Heliornithidae Genus: HeliopaisSharpe, 1893 Spesies: H. personata Nama binomial Heliopais personata(G.R. Gray, 1849) Pedendang topeng (Heliopais Personata) adalah burung air yang hidup di air payau. Adapun, mereka hidup di Bangladesh, Indocina, Malaysia dan Indonesia. Seperti keluarga mereka lainnya, misalnya Titihan matahari dan Pedendang...
Artikel ini bukan mengenai Stasiun Malang, Stasiun Malang Kotalama, atau Stasiun Curahmalang. Stasiun Pemalang KG05KD05JS18 Stasiun PemalangLokasiJalan Veteran 28Pelutan, Pemalang, Pemalang, Jawa TengahIndonesiaKetinggian+6 mOperatorKereta Api IndonesiaDaerah Operasi IV SemarangLetak dari pangkalkm 120+087 lintas Semarang Poncol-Tegal-Cirebon[1]Jumlah peron3 (satu peron sisi dan dua peron pulau yang sama-sama tinggi)Jumlah jalur4 (jalur 2 dan 3: sepur lurus)Informasi lainKode stasiunP...
Election for the governorship of the U.S. state of Missouri 1840 Missouri gubernatorial election ← 1836 August 3, 1840 1844 → Nominee Thomas Reynolds John Bullock Clark Party Democratic Whig Popular vote 29,625 22,212 Percentage 57.15% 42.85% Governor before election Lilburn Boggs Democratic Elected Governor Thomas Reynolds Democratic Elections in Missouri Federal government Presidential elections 1820 1824 1828 1832 1836 1840 1844 1848 1852 1856 1860 1864 18...
This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Susuk film – news · newspapers · books · scholar · JSTOR (June 2019) (Learn how and when to remove this template message) 2008 Malaysian filmSusukDirected byAmir MuhammadNaeim GhaliliWritten byRajesh NairProduced byAhmad Puad OnahRosihan ZainNaeim GhaliliS...
French court official Fulvie de Randan, portrait by François Clouet Charles de La Rochefoucauld, Comte de Randan, by Corneille de Lyon, in the Louvre[1] Fulvie de Randan, née Pic de Mirandole (1533–1607) was a French court official. She served as Première dame d'honneur to the queen of France, Louise of Lorraine, from 1583 until 1601. Life Fulvie de Randan was the daughter of Galeotto II Pico della Mirandola (d.1551) and Hippolita di Gonzaga-Sabionetta. She married Charles de La ...
2023 Indian film by SG Charles For the 2023 Sri Lankan Tamil-language comedy thriller film with the same name, see Soppana Sundhari. Soppana SundariTheatrical release posterDirected bySG CharlesWritten bySG CharlesProduced byBalaji Subbu VivekRavichandranStarring Aishwarya Rajesh Lakshmi Priyaa Chandramouli Deepa Shankar Karunakaran CinematographyBalamuruganVignesh RajagopalanEdited byK. Sarath KumarMusic bySongs:Ajmal TahseenScore:Vishal ChandrashekharProductioncompaniesHamsini Entertainment...
This article has multiple issues. Please help improve it or discuss these issues on the talk page. (Learn how and when to remove these template messages) This article contains content that is written like an advertisement. Please help improve it by removing promotional content and inappropriate external links, and by adding encyclopedic content written from a neutral point of view. (April 2013) (Learn how and when to remove this template message) The topic of this article may not meet Wikiped...
القرية ادريسية تقسيم إداري البلد المغرب الجهة مراكش آسفي الإقليم قلعة السراغنة الدائرة تاملالت الجماعة القروية زمران الشرقية المشيخة أولاد كايد السكان التعداد السكاني 415 نسمة (إحصاء 2004) • عدد الأسر 59 معلومات أخرى التوقيت ت ع م±00:00 (توقيت قياسي)[1]، وت ع م+01:00 (ت...
American diplomat Perry L. HollowayPerry Holloway in 2015United States Ambassador to GuyanaIn officeOctober 2, 2015 – December 8, 2018Preceded byBrent HardtSucceeded bySarah-Ann Lynch Personal detailsBornPerry Lee Holloway1960NationalityAmericanOccupationDiplomat Perry Lee Holloway[1] (born 1960)[2] is an American diplomat and was the former Ambassador to the Cooperative Republic of Guyana.[3] Career Perry L. Holloway was sworn in as Ambassador to the Cooper...