Entropia em Jogos de Tabuleiro

Talvez o exemplo mais simples e familiar de entropia seja o lançamento de dois dados. Jogadores experientes sabem: o resultado mais provável é 7.

Mas por quê?

Os dados não “preferem” o número 7. Ele é mais provável simplesmente porque existem mais maneiras de obtê-lo.

Chamamos a soma obtida de macroestado. A quantidade de maneiras de realizar esse macroestado é chamada de multiplicidade, representada por \(\Omega\).

Por exemplo:

$$ \Omega(\text{soma}=7)=6 $$

pois existem seis combinações possíveis:

$$ (1,6), (2,5), (3,4), (4,3), (5,2), (6,1) $$

Já para soma 2:

$$ \Omega(\text{soma}=2)=1 $$

apenas:

$$ (1,1) $$

Logo, o 7 é mais provável porque sua multiplicidade é maior.


Do dado às moléculas

Com dois dados ainda vemos grande variação: nem sempre sai 7.

Porém, quando falamos de sistemas com trilhões de partículas (como um gás), a lei dos grandes números transforma probabilidades em praticamente certezas. O sistema observado quase sempre estará no macroestado de maior multiplicidade.


Entropia como logaritmo da multiplicidade

Trabalhar diretamente com \(\Omega\) costuma ser inconveniente. Por isso, definimos a entropia como:

$$ S = k \ln \Omega $$

onde \(k\) é a constante de Boltzmann.

A entropia é, portanto, apenas uma medida logarítmica da multiplicidade.

É comum associar entropia a “caos” ou “desordem”, mas essas imagens são estéticas e podem confundir. O que realmente importa é:

Multiplicidade.

Uma visualização macroscópica mais adequada é a uniformidade de distribuição.


Microestados vs. Macroestados

Considere um baralho.

Pergunta comum: um baralho embaralhado tem mais entropia que um baralho ordenado?

Se estivermos falando de um arranjo específico, a pergunta não faz sentido. Um arranjo específico — ordenado ou embaralhado — é um microestado.

Por definição:

$$ \Omega_{\text{microestado}} = 1 $$

Logo:

$$ S = k \ln 1 = 0 $$

Ambos têm entropia zero enquanto microestados individuais.

A pergunta correta é: quantos estados satisfazem a condição “embaralhado”?

Para um baralho de 52 cartas:

$$ \Omega = 52! $$

Assim:

$$ S = k \ln(52!) $$

Numericamente,

$$ S \approx 2.2 \times 10^{-21} ,\text{J/K} $$

Um valor pequeno, mas bem definido.


Entropia exige dinâmica

Cartas não se embaralham sozinhas.
Dados não se rolam sozinhos.
Moedas não se lançam sozinhas.

Sistemas termodinâmicos reais são dinâmicos: exploram constantemente trilhões de microestados devido à energia térmica.

Portanto, entropia é definida para sistemas dinâmicos sob restrições bem especificadas.


Restrições e entropia

Podemos impor diferentes restrições a um sistema físico, como:

  • Número de partículas \(N\)
  • Volume \(V\)
  • Energia \(E\)
  • Magnetização \(M\)

A multiplicidade torna-se:

$$ \Omega = \Omega(N, V, E, M) $$

e a entropia:

$$ S = S(N, V, E, M) $$

Se adicionarmos uma restrição (por exemplo, fixar \(M\)), reduzimos o número de microestados acessíveis. Logo, a entropia diminui.

Esse princípio está na base de certos processos físicos, como o resfriamento magnético.


Energia, entropia e o universo

Sistemas físicos não tendem simplesmente a:

  • máxima entropia
  • mínima energia

Eles tendem ao mínimo de uma combinação entre energia e entropia: a energia livre.

A entropia não é uma força misteriosa. Ela é simplesmente:

$$ S = k \ln \Omega $$

Quando entendemos isso, a entropia deixa de ser uma metáfora filosófica e passa a ser uma ferramenta quantitativa poderosa para descrever o comportamento da natureza.