A entropia consiste numa medida
da “dispersão”, ou “espalhamento”, da energia de um sistema termodinâmico. Esta
é uma definição baseada no conceito estatístico de entropia. Este espalhamento
é relativo a todas as configurações microscópicas compatíveis com a energia do
sistema.[1] Numa leitura baseada na teoria da informação, a entropia
é uma medida da falta de informação acerca da configuração interna de um
sistema, visto que quanto maior é o número de microestados possíveis, menor é a
informação que se dispõem da constituição microscópica do sistema.[1]
O conceito de entropia foi
proposto pelo alemão Rudolf Clausius (1822-1888) que estabeleceu as pedras
basilares da Termodinâmica. Depois do conceito de energia ter sido firmemente
estabelecido (deixando para trás a fragilizada vis viva), o que lhe permitiu enunciar a lei da conservação da
energia, Clausius decidiu propor algo idêntico ao que tinha feito com a
energia. Ele sugeriu que as variações de energia e de temperatura (sendo esta
definida, como sempre, pela leitura de um vulgar termómetro) constituíam
apenas, e também, duas variedades da mesma coisa – variações de entropia.[2]
Clausius explicou o porquê da palavra entropia: “Construí intencionalmente a
palavra entropia de modo a ser tão
semelhante quanto possível à palavra energia,
pois as duas grandezas … encontram-se de tal modo unidas no respetivo
significado físico que se afigura desejável uma certa semelhança de
designação”.[2]
A entropia é,
na maioria das vezes, relacionada com o grau de desordem do sistema.[3]
É comum utilizarem-se exemplos como: Um pacote de esparguete cru tem entropia
baixa porque exibe uma grande ordem; quando se atira o esparguete para dentro
de um tacho com água a ferver e este se mistura todo, el fica mais desordenado
e, portanto, com maior entropia.[4] No entanto, esta analogia para a
compreensão da grandeza física entropia é enganadora.
Tome-se como
exemplo uma cristalização endotérmica de uma solução sobressaturada. Se colocar
esta solução num recipiente adiabático, espontaneamente, deverá ocorrer a
formação de núcleos de cristalização do soluto. Ora, este fenómeno sugere uma
diminuição substancial da “desordem”. Além disso, numa cristalização endotérmica
(como no caso de soluções sobressaturadas de sulfato de sódio) verifica-se uma
diminuição de temperatura do vaso reacional, o que sugere uma diminuição da
“desordem”. Contudo, se este fenómeno é espontâneo e colocado num sistema
reacional isolado, a entropia do sistema deve necessariamente aumentar. Assim,
uma argumentação baseada na “desordem” do sistema revela-se deficiente aquando
da explicação de certos fenómenos químicos.[1]
Assim, uma
interpretação preferível deste termo passará, necessariamente, pela noção dada
pela Termodinâmica Estatística[3] (referida no início do artigo).
Desta forma, uma analogia correta à real noção de entropia pode ser feita.[1]
Considerando um país (sistema), com N
habitantes (entidades elementares), onde se vai estudar o “estado” do dinheiro
(energia), isto é, a sua distribuição pelos habitantes e as formas assumidas
por esse dinheiro.
Dada a intensa
transação comercial, as distribuições possíveis do dinheiro pelos habitantes
são inúmeras. Contudo, ainda que se consiga uma distribuição mais provável do
dinheiro pela população, este pode estar sob diversas formas: seja em
numerário, contas bancárias ou cheques. Assim, no que respeita ao dinheiro de
cada indivíduo, este pode encontrar-se sob diferentes condições (aquilo a que
em Termodinâmica Estatística se designa por degenerescência). Neste caso, o
conjunto de microestados do sistema é imenso.
Contudo, se o
banco central fornecer o dinheiro de uma forma muito ordenada (todos com a
mesma quantia ou uns poucos com todo o dinheiro), as transações
encarregar-se-iam de espalhar o dinheiro pelos indivíduos e pelas diferentes
formas que este pode tomar. Desta forma, o número de microestados diferentes
para o dinheiro do país maximizar-se-ia, assim como a entropia de um sistema tem
que ser maximizada.
1. J.
P. M. Ferreira, “Como interpretar a entropia?” Química-Bol. SPQ 96
(2005), 38-42.
2. M.
Guillen, Cinco Equações Que Mudaram o
Mundo, 3ª edição, Lisboa: Gradiva Publicações, 1995, ISBN: 972-662-614-5.
3. F.
L. Lambert, “Shuffled Cards, Messy Desks, and Disorderly Dorm Rooms – Examples
of Entropy Increase? Nonsense!” J.
Chem. Educ. 76 (1999),
1385-1387.
4. J. Baker, 50 Idéias Que Precisa Mesmo De Saber –
Física, 1ª edição, Alfragide: Publicações Dom Quixote, 2011, ISBN: 978-972-20-4707-4.
Sem comentários:
Enviar um comentário