Entropia em Jogos de Tabuleiro
Talvez o exemplo mais simples e familiar de entropia seja o lançamento de dois dados. Jogadores experientes sabem: o resultado mais provável é 7.
Mas por quê?
Os dados não “preferem” o número 7. Ele é mais provável simplesmente porque existem mais maneiras de obtê-lo.
Chamamos a soma obtida de macroestado. A quantidade de maneiras de realizar esse macroestado é chamada de multiplicidade, representada por \(\Omega\).
Por exemplo:
$$ \Omega(\text{soma}=7)=6 $$
pois existem seis combinações possíveis:
$$ (1,6), (2,5), (3,4), (4,3), (5,2), (6,1) $$
Já para soma 2:
$$ \Omega(\text{soma}=2)=1 $$
apenas:
$$ (1,1) $$
Logo, o 7 é mais provável porque sua multiplicidade é maior.
Do dado às moléculas
Com dois dados ainda vemos grande variação: nem sempre sai 7.
Porém, quando falamos de sistemas com trilhões de partículas (como um gás), a lei dos grandes números transforma probabilidades em praticamente certezas. O sistema observado quase sempre estará no macroestado de maior multiplicidade.
Entropia como logaritmo da multiplicidade
Trabalhar diretamente com \(\Omega\) costuma ser inconveniente. Por isso, definimos a entropia como:
$$ S = k \ln \Omega $$
onde \(k\) é a constante de Boltzmann.
A entropia é, portanto, apenas uma medida logarítmica da multiplicidade.
É comum associar entropia a “caos” ou “desordem”, mas essas imagens são estéticas e podem confundir. O que realmente importa é:
Multiplicidade.
Uma visualização macroscópica mais adequada é a uniformidade de distribuição.
Microestados vs. Macroestados
Considere um baralho.
Pergunta comum: um baralho embaralhado tem mais entropia que um baralho ordenado?
Se estivermos falando de um arranjo específico, a pergunta não faz sentido. Um arranjo específico — ordenado ou embaralhado — é um microestado.
Por definição:
$$ \Omega_{\text{microestado}} = 1 $$
Logo:
$$ S = k \ln 1 = 0 $$
Ambos têm entropia zero enquanto microestados individuais.
A pergunta correta é: quantos estados satisfazem a condição “embaralhado”?
Para um baralho de 52 cartas:
$$ \Omega = 52! $$
Assim:
$$ S = k \ln(52!) $$
Numericamente,
$$ S \approx 2.2 \times 10^{-21} ,\text{J/K} $$
Um valor pequeno, mas bem definido.
Entropia exige dinâmica
Cartas não se embaralham sozinhas.
Dados não se rolam sozinhos.
Moedas não se lançam sozinhas.
Sistemas termodinâmicos reais são dinâmicos: exploram constantemente trilhões de microestados devido à energia térmica.
Portanto, entropia é definida para sistemas dinâmicos sob restrições bem especificadas.
Restrições e entropia
Podemos impor diferentes restrições a um sistema físico, como:
- Número de partículas \(N\)
- Volume \(V\)
- Energia \(E\)
- Magnetização \(M\)
A multiplicidade torna-se:
$$ \Omega = \Omega(N, V, E, M) $$
e a entropia:
$$ S = S(N, V, E, M) $$
Se adicionarmos uma restrição (por exemplo, fixar \(M\)), reduzimos o número de microestados acessíveis. Logo, a entropia diminui.
Esse princípio está na base de certos processos físicos, como o resfriamento magnético.
Energia, entropia e o universo
Sistemas físicos não tendem simplesmente a:
- máxima entropia
- mínima energia
Eles tendem ao mínimo de uma combinação entre energia e entropia: a energia livre.
A entropia não é uma força misteriosa. Ela é simplesmente:
$$ S = k \ln \Omega $$
Quando entendemos isso, a entropia deixa de ser uma metáfora filosófica e passa a ser uma ferramenta quantitativa poderosa para descrever o comportamento da natureza.