segunda-feira, 26 de dezembro de 2011

O primeiro vidro borossilicato

O vidro borossilicato é um tipo de vidro muito resistente a altas temperaturas. Habitualmente comercializado sob o nome de Pyrex, este vidro veio revolucionar a Química, a Culinária, e outras áreas. Este tipo de vidro possui, geralmente, uma composição química bem definida, embora possam surgir algumas variantes. Habitualmente os vidros borossilicatos  possuem uma larga percentagem de sílica (SiO2), ou dióxido de silício  na ordem dos 80%. Por outro lado, o outro composto principal que dá nome ao vidro é o trióxido de boro (B2O3– presente numa percentagem aproximada de 15%.




Esta composição química confere ao vidro uma elevada resistência aos choques térmicos, que pode ser comprovada sempre que tiramos um assado do forno (numa assadeira de pyrex) e o colocamos numa superfície à temperatura ambiente. No entanto, apesar da patente do pyrex datar da segunda década do século XX, a história do nascimento dos vidros borossilicatos remonta, muito provavelmente, ao primeiro século da nossa era.


Segundo a história contada pelo químico Joe Schwarck, no livro O Génio da Garrafa, um dia um artesão chegou à corte de Tibério César para lhe oferecer um lindo vaso de vidro transparente. Reza a história que, quando o artesão ia entregar o vaso a Tibério, deixou-o cair involuntariamente. Contudo, surpresa das surpresas, o vaso não partiu.


Tibério ficou, deveras, muito impressionado com o fenómeno que ele tinha acabado de assistir. Um vidro que não quebrou... Será bruxaria...? Numa tentativa de compreender o que se passou, Tibério questionou o artesão sobre a origem desse estranho material. Todavia, por ignorância ou por arrogância (talvez mais por esta última), o artesão negou-lhe o segredo.


Consciente ou inconscientemente, o artesão esqueceu-se que, naquele tempo, um "não" podia ser um bilhete de ida para a cova, ou para a fogueira, ou para a arena... Variedade não faltava. Como era de esperar, Tibério condenou o artesão à morte e, com ele, morreu o segredo do "vidro inquebrável" – um segredo que ficaria guardado por séculos.


Contudo, hoje podemos imaginar o que sucedeu na elaboração do "vidro inquebrável" do artesão romano. No período romano, o bórax, ou borato de sódio (N2B4O7), era usado pelos ourives como fluidificante para que os metais escorrerem com maior facilidade quando aquecidos. Muito provavelmente, o artesão também adicionou bórax ou seu vidro para aumentar a sua fluidez. Com essa adição conseguiu produzir um vidro borossilicato aparentemente inquebrável.

sábado, 10 de dezembro de 2011

A Revolução Quântica - Parte VI

Nota introdutória:
Com este post termina a saga "A Revolução Quântica". Reflectirá sobre os contributos de Heisenberg para esta revolta conceptual. Abordará também a discussão que sucedeu a estas novas formas de pensar. Acima de tudo, procurará render o devido louvor a uma época áurea da Física e da Ciência.

--
Apenas um ano depois dos contributos de de Broglie e Schrödinger, o alemão Werner Heisenberg (1901  1976) deu-se conta de que a teoria quântica continha algumas previsões estranhas. Ele compreendeu que nenhuma experiência podia ser efectuada em completo isolamento, porque o próprio acto de medir afectava o resultado.


Assim, Heisenberg montou aquele que viria a ser o princípio mais contra-intuitivo alguma vez postulado. Ele afirmou, naquele que ficou conhecido como o princípio da incerteza de Heisenberg, que não é possível, num dado instante, determinar com absoluta certeza quer o momento quer a posição de uma partícula (ou, de maneira similar, a energia num instante de tempo). Esta incerteza podia ser traduzida matematicamente por


Num século de pura descoberta, esta talvez tenha sido a primeira vez que a Natureza impôs um verdadeiro limite ao conhecimento científico. Quer queiramos quer não, a Natureza impossibilita-nos determinar com máxima precisão a posição e o momento de uma partícula (ou a energia num intervalo de tempo). Se conseguirmos melhorar a precisão na medição de uma das quantidades, a outra virá afectada da uma maior incerteza, de forma a que, no total, o produto das incertezas nunca seja igual ou inferior a metade da constante de Panck reduzida. A constante de Planck reduzida é uma quantidade muito usada nas equações da Mecânica Quântica e que resulta da divisão da constante de Planck por duas vezes o valor de π. Este resultado deve-se à dualidade onda-partícula e das definições de posição, momento, energia e tempo de uma partícula serem probabilísticas.

Toda esta Revolução Quântica conduziu a uma grande discussão sobre o assunto. Numa breve análise sobre as principais linhas de defesa (e ataque) da nova teoria quântica, podem destacar-se algumas efemérides interessantes. Logo em 1927, foi formulada uma interpretação formal com o objectivo de defender esta nova teoria. Esta ficou conhecida como a interpretação de Copenhaga, formulada pelo sempre interveniente Niels Bohr. Nesta interpretação é introduzida, pela primeira vez, a noção de colapso das funções de onda, como resultado das observações.

Posteriormente, em 1935, Schrödinger publicou um artigo em que proponha uma experiência hipotética que tentava ilustrar as consequências probabilísticas da nova teoria quântica: a experiência do sobejamente conhecido gato de Schrödinger. Muitas discussões advieram dessa estranha e hipotética experiência. No entanto, o ataque mais duro à nova teoria veio de Einstein, Podolsky e Rosen que, também em 1935, produziram aquilo que ficou conhecido como o paradoxo EPR.

Resistente a todos esses ataques, a teoria quântica ficou firmemente estabelecida até hoje. Ainda nenhuma experiência provou que esta teoria falhava e, ao que parece, este continuará a ser uma das pedras basilares da Física. Muitos foram aqueles que contribuíram activamente para esta Revolução e que não foram citados nesta saga. Todos os que de alguma forma contribuíram nesta nova Física deixaram um legado científico inigualável. Suponho que todos, sem excepção, quer compreendamos de Física quer não, devemos um profundo agradecimento e reconhecimento pelo trabalho vanguardista que estes verdadeiros cientistas desenvolveram.

Espero sinceramente que este conjunto de publicações tenham conseguido provocar no leitor um sentimento de dívida e gratidão por essas grandes mentes do século XX. 

segunda-feira, 5 de dezembro de 2011

A Revolução Quântica - Parte V

Nota introdutória:
Se bem se lembram, a última parte da Revolução Quântica deixou-nos no ano de 1913, quando Bohr propõe o seu modelo atómico. Nesta parte, falaremos das contribuições de Louis-Victor de Broglie e Erwin Schrödinger. Que novas portas de Broglie e Schrödinger abriram? Vejamos.

--
A proposta de Bohr veio dar uma lufada de ar fresco nos modelos atómicos, visto que finalmente havia um modelo que explicava o espectro do átomo de hidrogénio. Por fim, conseguia-se ligar a experiência ao modelo teórico. No entanto, como mostrei no post anterior, "havia algo que o modelo de Bohr não explicava. Com uma melhor resolução na análise de espectros do átomo de hidrogénio, era possível verificar riscas dentro das riscas principais. Este fenómeno, designado estrutura fina espectral, necessitava de uma explicação."


No entanto, infelizmente, a ciência e os seus executores nem sempre podem evoluir em paz. Pouco tempo depois de Bohr ter proposto o seu modelo atómico, rebentou a Primeira Guerra Mundial, em 28 de Julho de 1914. Este infeliz acontecimento, que viria a durar até 11 de Novembro de 1918, cravou profundas marcas de nacionalismo arrogante, ao qual muitos cientistas se aliaram. E, como seria de esperar, a ciência ressentiu-se com isso. Se, por um lado, as guerras serviram para evoluirmos tecnologicamente, por outro, serviram para empanturrar as grandes mentes da ciência com discussões perfeitamente à parte do saber científico. Que desperdício de tempo e sabedoria!

Só quando a poeira da Grande Guerra pousou é que as grandes mentes do século XX recomeçaram a pensar na grande revolução do saber científico que estava a decorrer naquele século. É nesta fase que entra em cena o "nobilíssimo" Louis-Victor-Pierre-Raymond, 7.º duque de Broglie (1892  1987). Em 1924, de Broglie sugeriu uma ideia que seria muito difícil de engolir. Einstein havia já provado que as ondas de radiação se comportam como corpúsculos – e já havia recebido o Prémio Nobel por esse facto, em 1921. No entanto, de Broglie sugeriu que as partículas de matéria podem comportar-se como ondas. Ou seja, todos os corpos têm um comprimento de onda a eles associado. Melhor ainda, uma partícula também era uma onda; e uma onda também era uma partícula. Mas, em que ficamos... Onda, ou partícula? De Broglie responde: ambas!


Três anos mais tarde, em 1927, a proposta de de Broglie foi comprovada quando se verificou, pela primeira vez, a difracção e interferência de electrões  exactamente como os fotões de Einstein. Actualmente, a dualidade onda-partícula está bem corroborada experimentalmente e já se conseguiram difractar neutrões, protões e algumas moléculas.

A ideia de que não existia uma partícula sem uma onda associada (e vice-versa) foi, talvez, um dos maiores choques conceptuais da Revolução Quântica. Uma das maiores questões era: Visto que as ondas são contínuas e as partículas não, como é que podemos dizer onde está uma partícula se ela está dispersa como uma onda? A esta pergunta aliava-se o facto dos níveis de energia de Bohr funcionarem apenas para o átomo de hidrogénio  em outros átomos ocorriam algumas variações.

De repente, a ideia de átomo concebida por Bohr deixava de fazer total sentido. Atento a essas questões e inspirado por de Broglie, o austríaco Erwin Schrödinger (1887  1961) escreveu uma equação, em 1926, que conseguia descrever a posição de uma partícula quando esta se estava comportar como uma onda. No entanto, só o conseguiu recorrendo à noção de probabilidade. Schrödinger introduziu a sua equação e a ideia de função de onda para exprimir a probabilidade de uma partícula estar num dado sítio, num determinado intervalo de tempo, e incluir toda a informação que pudesse acerca da partícula.


Assim, deixava-se um conceito determinista do átomo para um conceito probabilístico. O novo modelo atómico permitia estabelecer orbitais, e não órbitas, que correspondia a zonas de probabilidade elevada de encontrar um electrão. Todavia, o que talvez fosse mais chocante neste novo modelo é que havia uma probabilidade diferente de zero  pequena, é certo  de um electrão de um átomo estar a uma distância infinita do núcleo.

A equação de Schrödinger revolucionou a física, trazendo a dualidade onda-partícula de de Broglie para toda a matéria conhecida. Contudo, algo de chocante acabaria por acontecer em 1927. Algo que revolucionaria a Revolução Quântica. Mas deixarei isso para a próxima parte.

Baseado no livro 50 Ideias De Física Que Precisa Mesmo De Saber de Joanne Baker.

quinta-feira, 1 de dezembro de 2011

A Revolução Quântica - Parte IV

Nota introdutória:
Depois de um post dedicado, quase exclusivamente, ao ano 1905, o annus mirabilis de Einstein, é tempo de progredir na cronologia quântica. Posto isto, penso ser conveniente referir a importância das contribuições de Ernest Rutherford e Niels Bohr para A Revolução Quântica.
--

A ideia de que a matéria era constituída por átomos indivisíveis vinha desde os tempos de Demócrito (século V e VI a.C.). O próprio defendia a tese de que "Só há átomos e espaço vazio".

No entanto, só no século XIX e XX é que se começou a ver mais fundo do que o mero átomo. Em 1887, já Joseph Thomson (1856  1940) tinha conseguido libertar electrões de átomos, mostrando que afinal o átomo não era tão indivisível assim. É com esta experiência em mente que Thomson estabelece o seu modelo atómico  o famoso bolo de passas. Este modelo era, na sua essência, uma nuvem de carga positiva contendo electrões, que se conseguiam libertar com relativa facilidade.


Posteriormente, o físico Ernest Rutherford (1871  1937), originário da Nova Zelândia, ficou intrigado com os resultados das suas experiências de 1909. Quando disparava partículas alfa contra uma folha muito fina de ouro, uma pequena fracção das partículas invertia o seu sentido, voltando para trás, na sua direcção. Afinal, a afirmação de Demócrito tinha muito de visionário! Grande parte do átomo era constituído por espaço vazio. Dentro dos átomos existia um núcleo maciço, porém, grande parte dele era espaço vazio. Por isso, Rutherford estabeleceu um novo modelo atómico.



No entanto, a revolução ainda estava para vir... Niels Henrick David Bohr (1885  1962) viria a ser o responsável pela introdução da revolução quântica no átomo. Em 1913, Bohr aplicou as ideias de Planck (ver A Revolução Quântica - Parte I) aos electrões que orbitavam o núcleo de um átomo. Bohr colocou a hipótese de que, assim como os planetas do Sistema Solar, os electrões (de carga negativa) também orbitassem o núcleo positivo. No entanto, a aplicação da ideia de Planck surge quando Bohr propõe que os electrões só podiam possuir certas energias, que correspondiam a múltiplos dos quanta de Planck. Para os electrões de um átomo, os diferentes estados de energia correspondiam a diferentes níveis, n, ou camadas, em que eles orbitavam. Essas energias eram dadas, matematicamente, por


Finalmente, havia um modelo que explicava quase todas as experiências sobre o átomo mais simples, o de hidrogénio. Este modelo explicava conceptualmente os comprimentos de onda bem característicos da radiação que era emitida e absorvida pelo hidrogénio. Assim como uma escada, em que não podemos subir "meios degraus", o electrão do átomo de hidrogénio apenas está autorizado a saltar de níveis energéticos claramente definidos.


No entanto, havia algo que o modelo de Bohr não explicava. Com uma melhor resolução na análise de espectros do átomo de hidrogénio, era possível verificar riscas dentro das riscas principais. Este fenómeno, designado estrutura fina espectral, necessitava de uma explicação. Como explicar estes novos dados? Que novos participantes surgiriam na Revolução Quântica? Essas são perguntas a serem respondidas na próxima publicação do blog.

Baseado no livro 50 Ideias De Física Que Precisa Mesmo De Saber de Joanne Baker.

quarta-feira, 23 de novembro de 2011

A Revolução Quântica - Parte III

Nota introdutória:
Quando estava a preparar este novo post pensei: Como poderia avançar na Física do século XX sem dedicar um post ao annus mirabilis e a algumas contribuições científicas de Albert Einstein? Devido a esse facto, dedicarei este post a essa mente brilhante da Física do século XX: Albert Einstein.
--

Os primeiros e difíceis anos

Passados actualmente 56 anos sobre o seu falecimento e 106 anos sobre a extraordinária época, de apenas alguns meses, ao longo dos quais divulgou 5 investigações científicas que agitaram irremediavelmente a Física até então conhecida. Einstein foi um homem único que forneceu tributos revolucionários ao progresso da Ciência, foi um cidadão com um empenhamento cívico digno de nota e, pelo seu carácter, converteu-se num ícone popular. A sua vida, o seu universo e a sua obra devem ser reconhecidos e lembrados.

Nasceu numa sexta-feira, às 11:30 do dia 14 de Março de 1879 na cidade alemã de Ulm. Inicialmente, Pauline e Hermann – os seus pais – decidiram chamá-lo de Abraham – o nome do seu avô paterno. Porém, acharam esse nome demasiado judeu e, por isso, decidiram manter a inicial “A” e passaram a baptizá-lo como Albert Einstein. A sua origem, tanto paterna, como materna era judia e os seus pais pertenciam à classe comerciante alemã.

Com apenas 1 ano de idade, ele e a sua família mudam-se para Munique onde Albert passaria a sua infância até aos seus 16 anos de idade. Depois de completar 16 anos, por vontade própria, deixou Munique e mudou-se sozinho para a Suíça, para poder estudar no Instituto Politécnico de Zurique, no qual se formou em 1900 com grau de licenciado. Em 1901, renegou à cidadania alemã, para assim esquivar-se do serviço militar obrigatório, e obteve a nacionalidade suíça. Foi igualmente neste país que A. Einstein concluiu o seu doutoramento, em 1905.

Como não conseguiu vaga académica para continuar as suas funções, teve que partir para o mercado de trabalho, tendo sido admitido no ano de 1902 no Serviço de Patentes Suíço – em Berna – como terceiro oficial. Foi sempre um trabalhador capaz e desempenhava as suas funções com competência. Mas, acima de tudo, este período serviu para que Einstein pudesse preparar, amadurecer e escrever os artigos que publicou em 1905 – annus mirabilis – e que lhe renderam o reconhecimento e louvor científico mundial.

Annus mirabilis

Einstein era um homem ciente da importância do mundo como espaço para o desenvolvimento do conhecimento empírico. Foi um reconhecido perito de patentes e analista, foi também inventor e co-autor de pesquisas de natureza experimental. Apesar de ser conhecido pelas suas experiências conceptuais como forma de apresentar o seu processo de exposição e descoberta, todo o seu trabalho revela uma capacidade teórica muito fundeada na observação empírica.

Por muito que na actualidade pareça evidente, a realidade é que no começo do século XX ainda era muito discutida a descontinuidade da Natureza, e essas discussões advinham desde a existência por si só dos átomos, até ao mais polémico assunto dos corpúsculos de radiação. Esses assuntos não eram aceites pela maioria da comunidade científica. E, de certa forma, essa atitude é justificável visto que o avanço científico do século XIX nas disciplinas de Óptica, Termodinâmica e Electromagnetismo se deveu invariavelmente ao facto de se considerar a matéria e a energia como entidade contínuas. Muitos dos fenómenos que hoje conhecemos e muita da tecnologia que hoje utilizamos nasceu a partir desse paradigma. Está claro que sempre existiram algumas dúvidas mas nunca a ponto de questionar o mais básico dos pressupostos: a (des)continuidade da matéria e da energia.

Apesar de pessoas mais desatentas atribuírem a Einstein a descoberta do efeito fotoeléctrico, não foi isso que aconteceu. O efeito fotoeléctrico foi pela primeira vez observado em 1839 por Alexandre Becquerel mas essa descoberta não foi alvo de grande interesse ou divulgação pois para os cientistas da época não oferecia qualquer tido de utilidade. Einstein ao interpretá-lo e descrevê-lo pelas suas leis (que posteriormente viriam a ser verificadas) revolucionou por completo a ciência, visto que forneceu sustentação científica à hipótese originalmente formulada por Planck (em 1900) de descrever o espectro de emissão de luz por corpos incandescentes dividindo a energia em partições definidas.

Em 1905 Einstein concebe assim a Natureza como sendo constituída por corpúsculos. Mas ele não restringe esta concepção apenas à matéria visto que ele concebe a natureza corpuscular da absorção, emissão e propagação da luz em partículas que conteriam uma quantidade energética elementar relacionada com a cor da respectiva radiação.

O atrito que esta nova ideia provocou entre a comunidade científica devia-se ao facto de que esta teoria contrariava aparentemente a teoria ondulatória da luz que, ao longo do século XIX, obteve o seu expoente máximo de sucesso na interpretação quer qualitativa, quer quantitativa dos fenómenos luminosos. Só mais tarde é que estes “pedaços” de energia foram denominados de fotões e a sua existência tornou-se inquestionável nomeadamente depois do estudo de fenómenos conhecidos tais como o efeito Compton que apenas era explicado com a teoria corpuscular da radiação.

A relatividade especial

O ano de 1905 foi realmente muito produtivo para Einstein. Logo após se debater com as questões relacionadas com a luz e a sua natureza, Einstein inicia nesse mesmo ano aquela que viria a ser a maior revolução no pensamento científico do mundo. Ainda em 1905 ele idealiza uma experiência mental muito simples com comboios em movimento para explicar aquela que viria a ser chamada de Teoria da Relatividade Especial. Basicamente essa experiência mental pode ser resumida do seguinte modo: suponhamos que a berma da via-férrea é atingida por raios de dois pontos distantes, A e B. Se afirmarmos que ocorreram simultaneamente, o que significa isso?

Einstein percebeu que precisamos de uma definição operacional, uma definição que se possa efectivamente aplicar, e que tal exigiria ter em conta a velocidade da luz. A sua resposta foi que definiríamos os dois raios como simultâneos de estivéssemos parados exactamente a meio caminho entre eles e se a luz de cada um chegasse até nós no mesmíssimo momento.

Mas agora imagine-se que o evento seria visto por um passageiro de um comboio que se move rapidamente pela linha férrea do ponto A para o ponto B. Suponhamos que, no preciso instante em que o raio atingiu os pontos A e B, havia um passageiro no meio do comboio que tinha acabado se passar pelo observador que estava a meio caminho na berma da via-férrea. Se o comboio estivesse em repouso em relação à berma da via-férrea, o passageiro que se encontrava no interior veria os relâmpagos em simultâneo, à semelhança do que sucederia com o observador na berma da via.

Mas, se o comboio estivesse em movimento para o ponto B, o observador no interior estaria a dirigir-se para o ponto B enquanto os sinais luminosos viajavam. Portanto estaria posicionado ligeiramente mais próximo do ponto B no instante em que a luz chegasse e, por conseguinte, veria a luz do raio no ponto B antes de ver a luz do raio do ponto A. Como tal, afirmaria que os raios não tinham sido simultâneos.

Esta ideia simples, mas radical, significa que não há tempo absoluto e que a questão da simultaneidade só é verdade para o referencial em estudo. A partir deste ponto, Einstein estava pronto para escrever um dos seus artigos mais famosos: “Sobre a Electrodinâmica dos Corpos em Movimento”. Neste artigo ele mostra que, no fenómeno de indução electromagnética, um magneto e uma bobina induzem uma corrente eléctrica apenas baseada no seu movimento relativamente um ao outro. É importante anotar aqui que desde os tempos de Faraday que haviam duas explicações teóricas diferentes para a corrente produzida, dependendo de o magneto ou a bobina estarem em movimento.

E = mc2

Poderíamos pensar que o trabalho “Sobre a Electrodinâmica dos Corpos em Movimento” estava concluído com esta nova abordagem relativista. Porém, Einstein não se deixou ficar. Em Setembro de 1905 publicou aquela que viria a ser a equação mais famosa de toda a ciência. Einstein desenvolveu a ideia com uma gigantesca simplicidade. Em apenas três páginas, remete-se ao seu artigo sobre a relatividade especial e declara: “Os resultados de uma investigação electrodinâmica recentemente publicada por mim nesta revista levaram-se a uma conclusão interessante, a qual será aqui abordada.”

O resultado foi uma conclusão elegante: a massa e a energia são diferentes manifestações da mesma coisa. Há um intercâmbio fundamental entre elas. Como Einstein disse no artigo, “a massa de um corpo é a medida do seu conteúdo de energia”. Utilizou, ao contrário do que muitos pensam, a equação L=mV2. Até 1912 Einstein utilizou a letra L para representar a energia e o V para representar a velocidade da luz.

O passo até à relatividade geral

Não bastou para Einstein este gigantesco passo. Isto porque, na realidade, a sua teoria apenas era válida para referenciais a velocidades constantes. Não fazia parte da maneira de ser de Einstein deixar trabalhos científicos a meio. E, por isso, iniciou logo depois a sua busca por algo muito maior: a generalização da sua teoria da relatividade especial. Em 1907 ele faz a primeira aproximação à teoria da relatividade geral. Ele equiparou a movimento inercial o movimento de queda livre, alegando que as leis da relatividade especial deviam, pelo princípio da equivalência, ser as mesmas. Assim ele previu o fenómeno da dilatação gravítica do tempo e em 1916 enunciou de forma sistemática a teoria da relatividade geral, segundo a qual uma massa distorce o tecido espaço-tempo, ditando assim as leis do movimento relativo.

Essa teoria provou posteriormente ser a solução de imensos problemas na cosmologia. Por exemplo, resolvendo as equações da teoria da relatividade geral para o interior de uma estrela verificou-se que se a massa da estrela fosse comprimida num espaço suficientemente pequeno os cálculos pareciam entrar em colapso; e calculando para o centro da estrela, o espaço-tempo iria curvar-se indefinidamente sobre si mesmo. Para o nosso Sol, isso aconteceria se toda a sua massa fosse comprimida num raio inferior a três quilómetros. Numa situação dessas, nada que estivesse dentro desse raio conseguiria escapar à força gravítica, nem sequer a própria luz ou outra forma de radiação. Estes cálculos foram os precursores da descoberta de buracos negros. Porém, é digno de nota que Einstein não acreditou, nem na altura nem depois, que os resultados correspondessem efectivamente à realidade.

Mas como provar a teoria da relatividade geral? A teoria era muito abstracta e carecia, está claro, de verificação empírica, o que era muito difícil porque os efeitos que ela produzia eram extremamente pequenos quando comparados com a capacidade de observação naquela época. A precessão do periélio de Mercúrio foi o seu primeiro e imediato teste. O segundo foi o desvio de um feixe de luz na vizinhança e sob a influência de um corpo maciço; este teste foi feito sobre a observação do movimento de estrelas na vizinhança aparente do Sol, por ocasião do eclipse solar total de 1919. Arthur Eddington foi o grande promotor das expedições para o efeito realizadas pela Royal Astronomical Society de Londres, na Ilha do Príncipe e em Sobral no Brasil, cujos resultados suportaram as previsões da teoria e contribuíram para a sua aceitação internacional. A teoria da relatividade geral ganhou rapidamente grande alcance científico e filosófico, dado que ela é o suporte em que se formulam os modelos cosmológicos, e por consequência, se firmam os avanços da Cosmologia.

Outros feitos

Pouco mais tarde (1917), estudando a interacção da luz com a matéria, Einstein previu o fenómeno da emissão estimulada de radiação, um fenómeno discreto que passou relativamente desapercebido, até que foi pela primeira vez utilizado para amplificar a intensidade de um feixe de micro-ondas mediante uma cavidade reflectora em ressonância — “maser” (inventado por Charles Townes em 1954). Após o que, físicos e engenheiros, inventaram diversos dispositivos capazes de emitir intenso feixes paralelos de luz coerente – os “laser”, que são poderosos instrumentos de investigação e encontraram múltiplos domínios de aplicação.

Em 1924, em correspondência mantida com Satyendra Bose, Einstein concebeu um novo estado da matéria, constituído por um “condensado” de átomos a temperatura extremamente baixa, que exibiria superfluidez e coerência de movimento (análoga à coerência da luz laser). Este estado só viria a ser realizado em laboratório pela primeira vez em 1995, em Boulder na Universidade do Colorado, com o auxílio de campos magnéticos e lasers utilizados na contenção e arrefecimento de um vapor metálico, quase imobilizando os átomos que ficam constrangidos a movimento sincronizado, atingindo então o estado denominado “condensado” de Bose-Einstein.

Baseado no livro:
ISAACSON, Walter (2008). Einstein – A Sua Vida e Universo. Alfragide: Casa das Letras, Edição 10 07 0077.

sexta-feira, 18 de novembro de 2011

A Revolução Quântica - Parte II

A ideia (de Planck) de que a energia tem de estar quantificada em pacotes bem definidos tinha tanto de elegante como de impensável. Ao longo do século XIX nunca ninguém tinha posto em causa a súmula do saber científico. No entanto, bastou correr o primeiro ano do novo século para que tudo mudasse na Física. No entanto, foram as propostas de Planck que estiveram na base das mais maravilhosas explicações em Física.

Uma das mais espantosas explicações relacionadas com essa nova abordagem da Física foi proposta do Albert Einstein - a explicação do efeito fotoeléctrico. A primeira vez que o fenómeno foi observado experimentalmente foi em 1839, pelo físico francês Alexandre Becquerel. Estranhamente, quando se fazia incidir luz ultravioleta em metais, verificava-se a produção de corrente eléctrica. A experiência de Becquerel foi confirmada, em 1887, pelo alemão Heinrich Hertz,  que mediu faíscas causadas pela incidência de radiação ultravioleta entre placas   e pelo britânico Joseph Thomson.

Alexandre Becquerel

Sempre se notou que o fenómeno ocorria quando era utilizada radiação ultravioleta, porém, quando se utilizava luz vermelha, por exemplo, tal fenómeno não era verificado experimentalmente. Em certo sentido, parecia que era necessário atingir uma certa frequência para que o fenómeno ocorresse ou, dito de outra forma, era necessário uma energia mínima para que o efeito fotoeléctrico se verificasse. O saber científico dos físicos do século XIX terminava aqui. Quando era necessário explicar o mecanismo através do qual o efeito sucedia, havia um enorme vazio científico.

No entanto, um modesto avaliador de patentes do Gabinete Suíço de Patentes haveria de mudar o rumo da história. Em 1905, no annus mirabilis de Albert Einstein, este teve uma ideia radical para explicar o efeito fotoeléctrico. Einstein imaginou que poderia ousar tratar a luz da mesma maneira que Planck tratou a energia. Assim como Planck propôs que a energia estava finamente dividida em pacotes definidos (os quanta), Einstein propôs que a luz também pudesse estar dividida em pequenos pacotes energéticos (aquilo a que viria a ser chamado mais tarde de fotões).

Albert Einstein

Desta forma elegante, Einstein disse que cada fotão transporta consigo uma determinada energia, que é função da sua frequência, e que um fotão arranca um e um só electrão. Ora, fotões de frequências mais baixas possuem uma energia mais baixa e, por isso, não conseguiam arrancar o electrão da superfície do metal. No entanto, quando se aumentava a frequência dos fotões emitidos, a sua energia era superior e, como consequência, havia energia suficiente para arrancar o electrão da superfície do metal. O excedente energético era compensado pela energia cinética do electrão extraído ao metal.

Esquema do mecanismo do efeito fotoeléctrico

Esta ideia era sublime e invulgarmente radical. No entanto, ela foi encarada durante muitos anos com descrença pela comunidade científica. Einstein tinha, com a sua proposta de explicação do efeito fotoeléctrico, abalado um dos pilares da Física do século XIX  a radiação era considerada de natureza puramente ondulatória.

Todavia, a ideia de Einstein começou, aos poucos, a ser aceite devido a sucessivas experiências que comprovavam a sua explicação radical. Este foi o trabalho que valeu a Albert Einstein o Prémio Nobel da Física em 1921.

Mas, será que os físicos ficaram satisfeitos com a ideia de que a luz era um conjunto de partículas, ao invés de uma onda? Como explicar os efeitos ondulatórios da luz, face a estas novas constatações? Isso são matérias que serão consideradas em "A Revolução Quântica – Parte III".

Baseado no livro 50 Ideias De Física Que Precisa Mesmo De Saber de Joanne Baker.

domingo, 13 de novembro de 2011

A Revolução Quântica - Parte I

Nota introdutória:
Este post do blog fará parte de um conjunto de publicações sobre algumas circunstâncias históricas que providenciaram a "revolução quântica" na Física do século XX.
--
O século XX, o século da revolução da Física, iniciou-se com um choque gigantesco! Um físico alemão propôs algo impensável. O seu nome era Max Planck (1859-1947) e é, ainda hoje, considerado o pai da física quântica. Enquanto jovem, Planck nutria dois grandes gostos: a Música e a Física. No entanto, em ambas as áreas, os seus professores aconselharam-no a afastar-se. Note-se que, especificamente no caso da Física, pensava-se que o trabalho de descoberta estava feito (nas palavras de alguns, apenas seria necessário aperfeiçoar resultados experimentais já obtidos). No entanto, e felizmente para todos nós, Planck decidiu enveredar pelos sinuosos caminhos da Física e embrenhar-se numa forma de pensar ciência completamente diferente do, até então, pensamento puramente clássico.


A proposta da Planck surge das várias tentativas para explicar porque a radiação emitida por qualquer objecto obedecia sempre a um mesmo padrão, independentemente da substância em teste (a radiação de corpo negro). A investigação resultava do facto de que a maior parte da radiação proveniente de um objecto era irradiada numa frequência muito específica. No entanto, ao variar a temperatura desse objecto, a frequência a que ele emitia também se deslocava.

Muito embora os cientistas tivessem efectuado todas as medições que respeitavam aos gráficos da radiação de corpo negro, existiam somente explicações parciais para o fenómeno (propostas por Wilhelm Wien, Lord Rayleigh e James Jeans). Tanto a proposta de Wien (válida em frequências próximas do azul) como a proposta de Rayleigh e Jeans (válida em frequências próximas do vermelho) falhavam quando se caminhava para os extremos do espectro electromagnético. No caso específico da proposta de Rayleigh e Jeans, o seu modelo previa a libertação de uma quantidade infinita de energia quando um objecto emitisse no ultravioleta ou acima (uma falha convenientemente denominada de "catástrofe do ultravioleta").

Planck, por outro lado, não procurou modelos físicos e matemáticos que se adequassem ao observado nas experiências. Este investigador era uma apaixonado pelo purismo da Física e, por isso, desenvolveu uma teoria baseada nos princípios físicos básicos por trás do calor e da radiação. O fascínio pelas propostas inovadoras de Rudolf Clausius (a existência de uma nova grandeza universal, a entropia) e pelas elegantes equações de James Maxwell (que relacionavam campos eléctricos com campos magnéticos) permitiu a Planck desenvolver uma nova teoria que relacionava dois campos até então muito distintos.

O espírito de Planck sugeriu-lhe que deveria seguir o seu instinto matemático e chegar a conclusões que poderiam não ser aceites imediatamente pela comunidade científica. Para isso, ele teve que tratar a radiação como um conjunto de pequenos osciladores electromagnéticos. No fundo, Planck tratou matematicamente a radiação como se fossem pequenas partículas (a mesma maneira como os especialistas de termodinâmica tratavam o calor).

Esta era uma abordagem revolucionária e de difícil explicação. Todavia, Planck não se limitou a admitir um resultado que pudesse passar pelo crivo das grandes mentes mundiais. No seu esforço de conseguir concordância matemática, Planck teve que admitir que a energia apenas existia em pacotes definidos (os quanta). Além disso, essa energia deveria ser proporcional à frequência da radiação e afectada de uma constante de proporcionalidade invariante.

Ao estender o cálculo dos vários osciladores electromagnéticos possíveis à probabilidade da sua existência, Planck verificou que o cálculo coincidia com o espectro de corpo negro. Assim, em 1901, Planck abre o século XX com a publicação que conectava, pela primeira vez na história, a radiação com a probabilidade. Esta nova abordagem, além de resolver a "catástrofe do ultravioleta", justificava o espectro de corpo negro.

Foi semeada, nesse preciso momento, uma revolução na Física e desde 1901 esta disciplina nunca mais seria a mesma.

Baseado no livro 50 Ideias De Física Que Precisa Mesmo De Saber de Joanne Baker.

domingo, 6 de novembro de 2011

Porque a brincar também se aprende

Saudações a todos os leitores.

Este novo post tem como objectivo mostrar que a física dos movimentos não tem que ser trabalhada apenas com giz e quadro.

Este jogo, uma criação inédita de Matthew Blackman, permite variar a posição inicial, a velocidade e a aceleração do objecto em questão.

O objectivo é fazer corresponder o movimento do objecto com o gráfico previamente proposto.

Divertido e formativo.

Aproveitem!

Disponível em:
AQUI

terça-feira, 1 de novembro de 2011

Uma reflexão sobre a entropia


A entropia consiste numa medida da “dispersão”, ou “espalhamento”, da energia de um sistema termodinâmico. Esta é uma definição baseada no conceito estatístico de entropia. Este espalhamento é relativo a todas as configurações microscópicas compatíveis com a energia do sistema.[1] Numa leitura baseada na teoria da informação, a entropia é uma medida da falta de informação acerca da configuração interna de um sistema, visto que quanto maior é o número de microestados possíveis, menor é a informação que se dispõem da constituição microscópica do sistema.[1]

O conceito de entropia foi proposto pelo alemão Rudolf Clausius (1822-1888) que estabeleceu as pedras basilares da Termodinâmica. Depois do conceito de energia ter sido firmemente estabelecido (deixando para trás a fragilizada vis viva), o que lhe permitiu enunciar a lei da conservação da energia, Clausius decidiu propor algo idêntico ao que tinha feito com a energia. Ele sugeriu que as variações de energia e de temperatura (sendo esta definida, como sempre, pela leitura de um vulgar termómetro) constituíam apenas, e também, duas variedades da mesma coisa – variações de entropia.[2] Clausius explicou o porquê da palavra entropia: “Construí intencionalmente a palavra entropia de modo a ser tão semelhante quanto possível à palavra energia, pois as duas grandezas … encontram-se de tal modo unidas no respetivo significado físico que se afigura desejável uma certa semelhança de designação”.[2]


A entropia é, na maioria das vezes, relacionada com o grau de desordem do sistema.[3] É comum utilizarem-se exemplos como: Um pacote de esparguete cru tem entropia baixa porque exibe uma grande ordem; quando se atira o esparguete para dentro de um tacho com água a ferver e este se mistura todo, el fica mais desordenado e, portanto, com maior entropia.[4] No entanto, esta analogia para a compreensão da grandeza física entropia é enganadora.

Tome-se como exemplo uma cristalização endotérmica de uma solução sobressaturada. Se colocar esta solução num recipiente adiabático, espontaneamente, deverá ocorrer a formação de núcleos de cristalização do soluto. Ora, este fenómeno sugere uma diminuição substancial da “desordem”. Além disso, numa cristalização endotérmica (como no caso de soluções sobressaturadas de sulfato de sódio) verifica-se uma diminuição de temperatura do vaso reacional, o que sugere uma diminuição da “desordem”. Contudo, se este fenómeno é espontâneo e colocado num sistema reacional isolado, a entropia do sistema deve necessariamente aumentar. Assim, uma argumentação baseada na “desordem” do sistema revela-se deficiente aquando da explicação de certos fenómenos químicos.[1]

Assim, uma interpretação preferível deste termo passará, necessariamente, pela noção dada pela Termodinâmica Estatística[3] (referida no início do artigo). Desta forma, uma analogia correta à real noção de entropia pode ser feita.[1] Considerando um país (sistema), com N habitantes (entidades elementares), onde se vai estudar o “estado” do dinheiro (energia), isto é, a sua distribuição pelos habitantes e as formas assumidas por esse dinheiro.

Dada a intensa transação comercial, as distribuições possíveis do dinheiro pelos habitantes são inúmeras. Contudo, ainda que se consiga uma distribuição mais provável do dinheiro pela população, este pode estar sob diversas formas: seja em numerário, contas bancárias ou cheques. Assim, no que respeita ao dinheiro de cada indivíduo, este pode encontrar-se sob diferentes condições (aquilo a que em Termodinâmica Estatística se designa por degenerescência). Neste caso, o conjunto de microestados do sistema é imenso.

Contudo, se o banco central fornecer o dinheiro de uma forma muito ordenada (todos com a mesma quantia ou uns poucos com todo o dinheiro), as transações encarregar-se-iam de espalhar o dinheiro pelos indivíduos e pelas diferentes formas que este pode tomar. Desta forma, o número de microestados diferentes para o dinheiro do país maximizar-se-ia, assim como a entropia de um sistema tem que ser maximizada.
                                                                      
Referências:
1.     J. P. M. Ferreira, “Como interpretar a entropia?” Química-Bol. SPQ 96 (2005), 38-42.
2.     M. Guillen, Cinco Equações Que Mudaram o Mundo, 3ª edição, Lisboa: Gradiva Publicações, 1995, ISBN: 972-662-614-5.
3.     F. L. Lambert, “Shuffled Cards, Messy Desks, and Disorderly Dorm Rooms – Examples of Entropy Increase? Nonsense!” J. Chem. Educ. 76 (1999), 1385-1387.
4.     J. Baker, 50 Idéias Que Precisa Mesmo De Saber – Física, 1ª edição, Alfragide: Publicações Dom Quixote, 2011, ISBN: 978-972-20-4707-4.

sexta-feira, 28 de outubro de 2011

Uma pequena lição sobre chocolate


O chocolate, como sabemos, é um alimento proveniente do o cacau, a semente do fruto do cacaueiro, planta tropical de nome Theobroma Cacao. Theobroma significa “alimento dos deuses”, e é isso mesmo o que o chocolate é para quase todos nós.

O chocolate, tal como actualmente o conhecemos, é basicamente formado por finos fragmentos de pó de cacau espalhados em manteiga de cacau. Para além destes constituintes, contém ainda outras gorduras, emulsionantes (normalmente lecitina), açúcar e baunilha.

O cacau e a manteiga de cacau são obtidos a partir da semente do cacaueiro e eram usadas pelos Maias e Astecas para fazer uma bebida muito revigorante, e até considerada afrodisíaca, a que davam o nome de "Xocolatl" (xocoll = amargo e atl = água).

As partículas de cacau têm uma cor escura e um sabor intenso. A manteiga de cacau, por outro lado, equilibra com uma consistência cremosa e uma particularidade ímpar do chocolate, o facto de transitar, na boca, de um sólido aromático a um líquido acetinado. Isto acontece porque a manteiga de cacau tem um ponto de fusão bem definido, que corresponde sensivelmente à temperatura do corpo humano. A temperatura do nosso corpo é a ideal para o fundir e ele transforma-se num líquido denso, que liberta aromas quase inebriantes. E visto que, para poder derreter-se, qualquer substância retira calor ao meio ambiente, sentimos ainda uma agradável impressão de frescura na nossa boca.


Diversas substâncias cristalizam em formas dissemelhantes, e cada uma dessas formas tem características bem estabelecidas. A manteiga de cacau pode cristalizar em seis formas diferentes. O interessante é que somente uma delas é a mais aconselhada para se conseguir um chocolate com a textura ideal. Assim, para obter um chocolate de qualidade, deve evitar-se a presença das outras formas cristalinas. Isso alcança-se com uma verificação exigente das temperaturas de fusão e uma série de truques para que as moléculas que produzem a manteiga de cacau cristalizem na forma que admita obter um chocolate com as particularidades pretendidas. A este método atribui-se o nome de temperar o chocolate. Fazer um bom chocolate não é, por isso, uma tarefa fácil. Requer bastante experiência e conhecimentos!


A manteiga de cacau funde a cerca de 35 ºC e algumas das outras gorduras do chocolate a uma temperatura ligeiramente superior, mas nunca acima de 48 ºC. Se permitirmos que o chocolate atinja uma temperatura de cerca de 54 ºC, ele separa-se em manteiga de cacau, um líquido amarelado, e em partículas de cacau queimadas. Este processo é irreversível e torna o chocolate impróprio para uso. Assim, o chocolate deve ser derretido de forma lenta e a temperatura não deve exceder 49 ºC.


Enquanto vai derretendo, o chocolate deve ser mexido para manter a temperatura tão uniforme quanto possível. É também importante que tenha sido partido em pedaços mais ou menos da mesma dimensão e, de preferência, pequenos. Pedaços maiores levam mais tempo a derreter e os mais pequenos, entretanto, podem ficar queimados.

Conforme o livro "A cozinha é um laboratório" de Margarida Guerreiro e Paulina Mata
(Mas com aperfeiçoamento de português...) diHITT - Notícias

terça-feira, 25 de outubro de 2011

A história do Post-it


Quem disse que as coincidências em ciência não são boas? Muitas descobertas em Química foram resultado de puros acidentes ou coincidências. É o caso do tão famoso Post-it.

No ano de 1968 um químico de nome Spencer F. Silver, que trabalhava na empresa 3M, estava a trabalhar em adesivos sensíveis à pressão quando se deparou com um pormenor bastante curioso.


Ele descobriu que produzindo um co-polímero de acrilato de uma determinada forma, formava-se uma suspensão de microesferas ligadas entre si. Estas microesferas eram insolúveis na solução resultante da sua produção e inchavam até duplicar o seu diâmetro original. A cereja no topo do bolo é que quando se pulverizava a substância numa superfície, o solvente que inchou as microesferas evaporava e estas voltavam ao tamanho original.

Este adesivo tinha características muito diferentes dos adesivos com que Silver trabalhava, visto que este novo adesivo formava uma superfície descontínua, ao contrário dos habitualmente produzidos na 3M. É claro que, inicialmente, a empresa não tinha nenhum projecto em mente para o novo adesivo. Mas houve um estudo no sentido de encontrar uma aplicação com potencial para criar novos produtos.


Só seis anos depois, em 1974, um engenheiro químico da mesma empresa, de nome Art Fry, teve a brilhante ideia de utilizar o adesivo num marcador que fosse removível. Essa ideia ocorreu-lhe enquanto ele cantava no coro da sua igreja. É neste momento que o projecto Post-it se inicia. A superfície irregular do adesivo, característica incomum em adesivos, permite que apenas uma parte deste entre em contacto com a superfície de colagem. Ora, se uma menor área de adesivo se liga com a superfície, a remoção do mesmo torna-se substancialmente mais fácil.

Ora, fica provado que, em química, acidentes e coincidências nem sempre são maus...

sábado, 22 de outubro de 2011

Uma nova tabela periódica no ano internacional da química!

Neste post do blog pretendo dar conta de um artigo da minha autoria que foi publicado na revista Química, o Boletim da Sociedade Portuguesa de Química.

Este e outros artigos podem ser consultados on-line, gratuitamente, no seguinte link na Webhttp://www.spq.ubiktek.pt/revistas/Boletim/BSPQ_N122/BSPQ_N122.pdf.

Fica, seguidamente, uma cópia do reconhecimento do trabalho realizado pelos meus alunos do ano transacto, por mim, pela minha colega de estágio (Eduarda Faria) e pelo meu orientador de estágio (Fernando Pires Basto).


Baseado em D. Ribeiro, “Uma Nova Tabela Periódica no Ano Internacional da Química!”, Química – Bol. S. P. Q. 122 (2011) 25-26.

terça-feira, 18 de outubro de 2011

A cebola e o choro

Allium cepa! Um nome pomposo para um alimento tão utilizado na gastronomia portuguesa: a cebola. Este alimento tem diversas particularidades que nos fazem utilizá-lo em quase todos os nossos cozinhados. No entanto, provavelmente já deve ter notado que a cebola não tem um cheiro muito activo antes de ser cortada. Contudo, depois de cortada segue-se um cheiro terrivelmente forte que amiúde nos faz chorar.

Os compostos libertados que nos fazem chorar são os mesmos que protegem a cebola de elementos de níveis superiores da cadeia alimentar. A formação destes compostos é o resultado da acção de uma enzima que está isolada em bolsas, a alinase. Quando a cebola é cortada, as bolsas que contêm as enzimas são também rompidas. Por acção da alinase, os sulfóxidos de aminoácidos (derivados da cisteína) presentes noutras bolsas isoladas e rompidas reagem formando ácidos sulfénicos.


Estes ácidos possuem uma grande volatilidade e, por isso, são libertados como gases que reagem com a água presente nos nossos olhos, formando ácido sulfúrico em muito baixas concentrações. Todavia, apesar de se formar com concentração baixa, este ácido irrita imediatamente os terminais nervosos nos nossos olhos. A resposta imediata do nosso organismo é a de diluir os ácidos nos nossos olhos e, para isso, produz água em excesso para o efeito (as lágrimas).

Ora, se a produção de água pelo nosso organismo é a primeira linha de defesa contra este efeito, então cortar cebolas debaixo de água corrente minimiza os efeitos nos receptores nervosos dos nossos olhos. Se preferir, pode também utilizar óculos de natação para que o gás não chegue aos seus olhos, embora isso talvez seja pouco prático.


No entanto, uma solução inusitada mas eficaz é colocar a cebola no congelador antes de ser cortada (cerca de 1 hora). Isto acontece porque a actividade enzimática da alinase diminui com a diminuição da temperatura. Ao cortar uma cebola muito fria, a actividade da alinase é minimizada e, consequentemente, a produção do gás que nos provoca as lágrimas é francamente diminuída.

Baseado no livro "A cozinha é um laboratório" de Margarida Guerreiro e Paulina Mata.

sexta-feira, 14 de outubro de 2011

Por que o vinho se estraga depois de aberta a garrafa?


A partir do momento em que se abre uma garrafa ou pacote de vinho, este passa de imediato a estar em contacto com o ar. Neste momento começa a ocorrer um processo muito comum na Natureza: a oxidação. A oxidação do vinho é o resultado de uma panóplia de reacções química que ocorrem com a participação do oxigénio atmosférico. O oxigénio reage com certas substâncias constituintes do vinho transformando-as noutras com características diferentes. 

Numa fase inicial, o processo oxidativo é conveniente visto que permite ao vinho assumir aspectos diferenciados do seu sabor a respectivos aromas. No entanto, ao cabo de algumas horas, as reacções de oxidação introduziram no vinho substâncias que fazem com que este assuma características indesejáveis, especificamente diferenças substanciais no sabor e aromas, tornando o vinho menos apelativo.


Se se deixar prolongar este processo oxidativo, o vinho pode tornar-se mesmo intragável sem, no entanto, implicar algum risco de saúde grave. O oxigénio atmosférico pode, por exemplo, reagir com o álcool do vinho originando acido acético e água (produtos pouco convenientes para a conveniente degustação de um bom vinho).

Mesmo que tentemos rolhar muito bem a garrafa, o ar que fica retido na mesma é suficiente para que a oxidação do vinho se processe. Posto isto, como será possível conservar vinho nas melhores condições, mesmo depois de aberto? Existem diversos processos para melhorar substancialmente as condições de conservação de um vinho.

É conveniente, por exemplo, depois de rolhar bem a garrafa, colocá-la no frigorífico. As reacções químicas de oxidação do vinho são, grosso modo, endoenergéticas. Isto significa que se fornecermos energia (por exemplo, calor) ao vinho, a oxidação é bastante mais rápida. Por isso, diminuindo a temperatura do vinho, inibimos ligeiramente os processos oxidativos inerentes.



Outra técnica que pode ser utilizada é a extracção do ar das garrafas. Actualmente, existem alguns sistemas simples que extraem grande parte do ar da garrafa. Ora, se existir menor quantidade de ar na garrafa, as reacções de oxidação ocorrerão em menor extensão. Numa situação ideal, dever-se-ia extrair o ar da garrafa e colocá-la no frigorífico.