Aproximações para Pequenos Valores em Combinações de Variáveis Gamma e Qui-Quadrado

Há um certo prazer em perceber que um objeto complicado, quando observado sob a lente correta, revela uma estrutura surpreendentemente simples. Recentemente, estive pensando a respeito de combinações lineares de variáveis qui-quadrado e gamma. À primeira vista, trata-se de um problema que parece condenado à complexidade: somas de variáveis gamma independentes, em geral, não admitem formas fechadas elegantes. Em vez disso, somos conduzidos a convoluções, funções especiais e expressões que existem mais no papel do que na prática. ...

20 de abril de 2026

Aproximações por Lei de Potência para Cadeias de Decaimento Radioativo

Introdução Considere uma cadeia de decaimento radioativo: $$ X_1 \rightarrow X_2 \rightarrow \cdots \rightarrow X_n $$ Cada núcleo $X_j$ decai com constante de decaimento $\lambda_j$, e uma fração $b_j$ gera o próximo elemento da cadeia. Definimos $N_j(t)$ como a quantidade de $X_j$ no tempo $t$, produzida ao longo da cadeia. O sistema é descrito por: $$ \frac{dN_1}{dt} = -\lambda_1 N_1 $$ $$ \frac{dN_j}{dt} = b_{j-1}\lambda_{j-1}N_{j-1} - \lambda_j N_j, \quad j \ge 2 $$ ...

20 de abril de 2026

Processos de Markov com Estados Rápidos e Lentos

Introdução Este trabalho estuda processos de Markov em tempo contínuo nos quais as taxas de transição de um grupo de estados (os estados rápidos) são grandes em comparação com as taxas de transição dos outros estados (os estados lentos). Para propriedades básicas de processos de Markov, ver Brémaud [1]. Os estados lentos serão numerados como $1, 2, \dots, n$ e os estados rápidos como $n+1, \dots, n+m$. Notação Considere as seguintes taxas de transição: ...

16 de abril de 2026

Grandes expectativas: Valor Esperado, Jensen e Expectativa Condicional

Neste post exploramos propriedades fundamentais do valor esperado em variáveis aleatórias. 1. Linearidade da Esperança Um dos resultados mais importantes: $$ \mathbb{E}\left[\sum_{i=1}^{n} X_i \right] = \sum_{i=1}^{n} \mathbb{E}[X_i] $$ A esperança da soma é a soma das esperanças, mesmo sem independência. 2. Expectação da Binomial Se $Y \sim \text{Bin}(n, p)$, podemos escrever: $$ Y = \sum_{i=1}^{n} X_i $$ onde $X_i \sim \text{Bernoulli}(p)$. Como: $$ \mathbb{E}[X_i] = p $$ Então: $$ \mathbb{E}[Y] = \sum_{i=1}^{n} \mathbb{E}[X_i] = np $$ ...

23 de fevereiro de 2026

Vamos Fazer um Acordo

Vamos Fazer um Acordo Este é um exemplo de um problema que confunde muitas pessoas (inclusive eu) e como analisá-lo corretamente. Esperamos que este exemplo ilustre alguns métodos gerais de análise que você pode usar para navegar por questões mais gerais e confusas. Em particular, os métodos usados aqui aplicam-se à renormalização de estados quânticos emaranhados quando uma medição de um valor é feita. Você está no programa de TV Let’s Make a Deal. Existem 3 portas. Escondido atrás de duas delas estão cabras; atrás da outra está o Grande Prêmio. Você escolhe a porta #1. Monty Hall, o apresentador, sabe o que está atrás de cada porta. Ele abre a porta #2 e mostra uma cabra. Agora ele pergunta: você quer continuar com sua escolha ou mudar para a porta #3? Você deve mudar? ...

2 de setembro de 2024

Resumo de Cálculo de Probabilidade

Resumo de Cálculo de Probabilidade Regras e Notas Sempre Verdadeiro: Pr(~A) = 1 – Pr(A) A probabilidade do evento complementar (A) é igual a 1 menos a probabilidade de (A). Pr(espaco amostral inteiro) = 1 A probabilidade do espaço amostral inteiro é 1. Pr(A ou B) = Pr(A) + Pr(B) – Pr(A e B) Subtraia qualquer contagem dupla de (A \cap B). Se A e B são Independentes: Pr(A e B) = Pr(A)Pr(B) Definição precisa de “independência”. ...

20 de março de 2023