Despedida

Agora que farão quase dois anos de blog, trago a notícia, caros leitores, de que não será mais possível para mim continuá-lo. A razão é simples: meu nível de exigência aumentou na proporção em que meu tempo diminuiu, reduzindo minha taxa de publicação. E ela será reduzida até muitos meses em vista das obrigações que virei a possuir daqui a pouco tempo. Consequentemente o post “O perigo das contradições” é o último, e talvez mais importante mensagem que eu posso dar aos cientistas que, como eu, matam um leão por dia a fim de viver da ciência que cultivamos e desenvolvemos, aprendemos e ensinamos. Se você é um estudante, cabe uma palavra de estímulo. A ciência é difícil, financeiramente até injusta às vezes (alguns diriam que estou sendo educado ao usar estes termos), mas o fato é que é possível continuar amando vivê-la, um passo de cada vez, por pelo menos tanto tempo quanto posso garantir, que são meus 9 anos de faculdade, e minha infância e pré-adolescência de experimentos amadores. Eu digo ciência de maneira geral pois ela adquire diversas formas, e a matemática é uma delas, e tentei mostrar nestes dois anos que ela não pode ser só uma ferramenta, mas uma forma de pensar, de organizar, simplificar e aumentar a eficiência da ciência que a permite entrar. Não sou grande coisa pra dizer isso, mas levei tempo pra verificar, a duras penas, esta assertiva.
Não vejo como algo negativo esta despedida. Sinto que é o momento apropriado. Agradeço aos que acham que o blog vale a pena de ser lido, em um ou outro aspecto, e aqueles que contribuíram, de uma forma ou de outra, para que ele durasse tanto tempo. Obrigado sincero aqueles poucos que tiveram interesse de divulgá-lo, verbalmente ou virtualmente. Serei sempre grato por isso.
Antes de partir, queria dar algumas dicas de coisas que planejei falar sobre mas não o farei. A primeira é sobre balanceamento de reações, e abaixo seguem alguns artigos de Ice. B. Risteski sobre balanceamento. Ele acredita que balanceamento de reações químicas é simplesmente algebra linear, e não química, portanto deveria ser preocupação dos matemáticos. Não concordo em muitas partes da sentença anterior, mas acho que algumas coisas que ele desenvolveu e discute são bastante pertinentes:

risteski2014
risteski2013
risteski2012
risteski2011
risteski2008
Estequiometria com Matlab

O último artigo é do Andersen e do Bjedov sobre como fazer balanceamento usando o Matlab. Achei bastante didático, e as operações são facilmente transponíveis para o Scilab (gratuito).

Finalmente não tive a oportunidade de abordar dinâmica não-linear com vocês, o que é uma pena, pois os físicos e os biólogos já sabem há muito tempo que a área é bonita e produtiva. Existe uma ampla linha de pesquisa em cinética de reações complexas que usam essa abordagem nos seus estudos, mas a área em termos de ensino é relegada a comentários em livros de físico-química, o que acho um desperdício. Até porque dá pra usá-la em algo mais que cinética química, como geralmente é feito (reações oscilantes e padrões espaço-temporais), e acho que a chave para ligar a termodinâmica à cinética se dá pela dinâmica não-linear (os escritos de Ilya Prigogine indicam isso, embora eu busque provas mais rigorosas ainda). Mas talvez por meio do artigo abaixo algo a respeito do assunto fique um pouco menos nebuloso para iniciantes:

27-ED13752MS
27-ED13752

Um grande abraço para todos vocês.
Diego

Posted in Geral | Leave a comment

O perigo das contradições

Este post é dedicado aos estudantes que desejam fazer boa ciência. Às vezes refletimos sobre os aspectos lógicos do que fazemos, mas a verdade é que acho que boa ciência só pode sair de uma reflexão profunda da pesquisa em questão. É possível publicar artigos sem isso? Claro. Alguns acham que boa ciência reside na sua originalidade. Porém, quando se estuda lógica e filosofia, percebe-se que devemos nos concentrar no que temos a disposição e fazer melhor uso disso. Originalidade, pelo menos pra mim, é um termo relativo que depende de diversos fatores, não só da pessoa envolvida (e geralmente não é só uma) no projeto. Assim como inteligência, não acho justo ponderar desempenho da pessoa por esta característica. Acho mais adequado usar uma medida do quanto que a pessoa usou a partir do tanto que tem, por assim dizer. E nisso entra minha opinião sobre reflexão na execução da ciência. Ela não depende tanto de sua originalidade, mas de sua predisposição a sentar e pensar sobre o que faz, porque faz, como faz. Daí surgem grandes planejamentos e idéias boas, que podem ou não ser consideradas originais (o termo “original” na linguagem popular é muito impreciso ainda, para mim). Sei que num laboratório, ou mesmo para um teórico, a batelada de experimentos ou cálculos é tão grande e há tanta coisa para se fazer, o patrão pedindo coisas, você querendo fazer umas outras, que fica difícil parar e refletir. Mas acho que se você está dentro do grupo que deseja produzir algo de qualidade, então saberá que vale a pena andar um passo de cada vez, com segurança, pelo menos na maior parte das vezes. Como conseqüência, tipicamente vamos um pouco mais devagar com a pesquisa do que supostamente deveríamos (temos que encontrar um meio termo, já que somos cobrados a publicar certo número de artigos por intervalo de tempo). Mas eu, pelo menos, prefiro esse risco do que chegar perto do final dela, encontrar uma decisão mal tomada ou uma inconsistência lógica, matemática, experimental, no meio ou no começo do trabalho. Isso pode destruir todo o prédio de conhecimento que você se esforçou tanto para construir. Pondere: qual o preço que você prefere pagar, ou o risco que você prefere correr? Se suas prioridades não são essas, por quaisquer razões que você tenha, não o/a julgo. Todos temos nossas vidas e nossas razões. Só que neste caso este post talvez não seja muito interessante pra você.

Bom, agora indo ao ponto que me traz ao blog hoje, falei sobre reflexão em ciência. Ela é importante para evitar encontrar inconsistências lógicas ou contradições no nosso trabalho. Por que eu digo isso? O perigo das contradições reside no fato de que se pode provar qualquer coisa por meio de premissas contraditórias. Assim o caráter “sagrado” de uma teoria de poder ser desprovada ganha faceta de algo que pode ser aceito de um jeito ou de outro. A teoria passa a ser uma escolha. Existem escolhas em ciência, pelo menos pra mim isso é claro, e reside no caráter humano da empreitada e de suas motivações, do espaço de possibilidades que nosso cérebro pode explorar ser enorme. Mas teorias com premissas contraditórias simplesmente não servem pra nada, pois se um experimento dá uma coisa, você pode justificá-la, se dá outra, você pode justificá-la também. Você simplesmente perde a ferramenta de decisão fundamental que nos galga ao progresso científico. Ok, falei demais sobre isso, e parece que estou tentando explicar o óbvio, mas como uma premissa contraditória pode ser tão perigosa? Tome por exemplo uma história sobre o lógico G. H. Hardy (autor do recomendado “Em Defesa de um Matemático”), contada no livro “Convite à Física Matemática”, de Nivaldo A. Lemos (recomendado com ênfase também). Uma pessoa, incrédula de que pode-se provar qualquer coisa através de premissas contraditórias, desafiou Hardy a provar que ela era o Papa a partir da seguinte premissa: 4 = 7. Esta é uma premissa contraditória em um sentido melhor explicitado mais adiante no post. A resposta de Hardy foi mais ou menos essa: “4 = 7. Subtraia 1 dos dois lados da equação, resultando em 3 = 6. Divida por três os dois membros da equação: 1 = 2, ou o que dá na mesma, 2 = 1. Você e o Papa são dois, mas como 2 = 1, você é o Papa”. Boa essa, não? Ainda sem medo do poder adaptativo das contradições? Bem, é possível provar que se uma proposição P (podendo ser uma premissa, hipótese ou teoria, por exemplo) é verdadeira e falsa, o que equivale dizer que P\wedge\urcorner P (P e não-P) são verdadeiras, então qualquer outra proposição Q pode ser demonstrada a partir dela. Para provar isso usarei a demonstração do filósofo Karl Popper que tirei do livro “A Lógica da Pesquisa Científica” (é muito bom se você tiver paciência ao detalhamento do autor), e algumas relações lógicas que não demonstrarei por dois motivos: 1) não tenho o propósito de tentar ensinar lógica matemática aqui e 2) para que sirva de estímulo aos interessados buscar aprender um pouco sobre o assunto, de importância capital, na minha opinião; e 3) as provas são fáceis de encontrar. As equivalências lógicas são: (A) P\rightarrow Q (P acarreta ou implica Q) implica \urcorner P\vee Q (ou não-P é verdadeira ou Q é verdadeira); e (B) P\rightarrow R\rightarrow S (R e S são proposições) implica P\wedge R\rightarrow S. Ou seja, em linguagem mais sucinta: (P\rightarrow Q)\rightarrow (\urcorner P\vee Q) e (P\rightarrow R\rightarrow S)\rightarrow [(P\wedge R)\rightarrow S]. Apesar de não mostrar as demonstrações (que podem ser feitas por meio de tabelas-verdade ou de provas diretas), posso exemplificar com facilidade o que essas relações dizem: (A) Se você é casado(a), você tem uma(um) esposa(o) (P\rightarrow Q), portanto ou você é solteiro(a) ou você tem uma(um) esposa(o) (\urcorner P\vee Q); (B) Se você tem 10 reais, você tem 5, e se você tem 5, você tem 3 (P\rightarrow R \rightarrow S), logo se você tem 10 e 5 reais, você tem 3 ((P\wedge R)\rightarrow S), já que ter 5 seria o suficiente para ter 3 reais.
Bom, vamos à demonstração de que da contradição podemos provar qualquer proposição. A contradição lógica pode ser escrita como P\wedge\urcorner P, a coexistência de P e o oposto dela, algo ser e não ser verdadeiro no sentido lógico (não estou falando de “verdades” baseadas em opinião, ou ser e não ser em diferentes contextos, mas no mesmíssimo contexto). Por exemplo, ser casado e solteiro ao mesmo tempo. Isso é uma contradição lógica, pois a definição de casado é a de não ser solteiro, e vice-versa. Bom, assumindo isso, segue o presente teorema:

Teorema 1: Se P\wedge\urcorner P, então Q, sendo Q uma proposição qualquer.

Prova:
(1) P\wedge\urcorner P (hipótese);
(2) \urcorner P (conseqüência de (1));
(3) \urcorner P\vee Q (já que, pelo menos, \urcorner P é verdadeira);
(4) P\rightarrow Q (usando (3), (A) e o fato de que \urcorner(\urcorner P) equivale à P);
(5) \urcorner P\rightarrow (P\rightarrow Q) (usando (2) e (4));
(6) (\urcorner P\wedge P)\rightarrow Q (usando (5) e (B));
(7) (P \wedge\urcorner P)\rightarrow Q (usando o fato de que para duas proposições R e S, R\wedge S equivale à S\wedge R).
Q. E. D.

Se você não entendeu a prova, sem problema. Basta lembrar da história do Hardy: se duas coisas logicamente inconsistentes são assumidas verdadeiras (como 4 = 7, dois números diferentes terem as mesmas propriedades matemáticas, todas elas), coisas como qualquer pessoa pode ser Papa surgem dessa premissa. Em lógica fica mais fácil usar a expressão (P \wedge\urcorner P)\rightarrow Q.

Agora vou dar um passo a mais, e esse me parece ter implicações mais sérias. No entanto o passo é meu, de modo que me responsabilizo por qualquer erro matemático ou filosófico que advenha dele. Para dar esse passo usarei o Teorema 1 e uma outra relação lógica: Se \urcorner (P\wedge L) é verdadeira, então \urcorner P\vee \urcorner L também é, ou \urcorner (P\wedge L)\rightarrow \urcorner P\vee \urcorner L . Exemplificar essa relação também não é difícil: se não é verdade que você e seu amigo são bons em matemática (\urcorner (P\wedge L)), então então ou você ou ele não são bons em matemática (\urcorner P\vee \urcorner L ). Essa relação pode ser estendida para um conjunto finito de n premissas, de modo que: \urcorner(P_1\wedge P_2\wedge ...\wedge P_n)\rightarrow \urcorner P_1\vee \urcorner P_2\vee ...\vee \urcorner P_n. A essa relação chamarei de (C). Agora vem a parte interessante. Considere uma teoria. Ela pode ser decomposta em um conjunto de fatos, que pelo laborioso trabalho de edificação científica, são tidos como verdadeiros. Vamos supor que de fato eles sejam. Como para que a teoria quântica seja válida, precisamos assumir a existência de átomos, elétrons, a possibilidade de partículas se comportarem como onda, e por aí vai, todas comprovadas experimentalmente, de uma forma ou de outra. Se chamamos a teoria de P, e dizermos que ela equivale a esse conjunto de proposições P_1, P_2, …, P_n, que devem ser simultaneamente verdadeiras para que a teoria seja válida, podemos usar o Teorema 1 e provar o Teorema 2:

Teorema 2: se P_i\wedge\urcorner P_i para pelo menos uma proposição que compõe a proposição P_1\wedge P_2\wedge ...\wedge P_n, então é possível provar Q, sendo Q uma proposição qualquer.

Prova:
(1) P_1\wedge P_2\wedge ...\wedge P_n (hipótese);
(2) P_i\wedge\urcorner P_i (hipótese);
(3) \urcorner P_i (consequência de (2));
(4) \urcorner P_1\vee \urcorner P_2\vee ... \vee \urcorner P_n (já que pelo menos \urcorner P_i é verdadeira);
(5) (P_1\wedge P_2\wedge ...\wedge P_n)\wedge \urcorner(P_1\wedge P_2\wedge ...\wedge P_n)\rightarrow Q (usando (1) e Teorema 1);
(6) (P_1\wedge P_2\wedge ...\wedge P_n)\wedge (\urcorner P_1\vee \urcorner P_2\vee ...\vee \urcorner P_n\rightarrow Q) (usando (5) e (C));
(7) Q (usando (1), (4) e (5));
(8) (P_i\wedge\urcorner P_i)\rightarrow Q (usando (2) e (7));
Q. E. D.

Ou seja, se existe pelo menos um i referente a uma premissa P_i que coexista, digamos assim, com seu oposto lógico, \urcorner P_i, então é possível provar uma proposição Q qualquer. Uma representação mais formal seria (\exists i)(P_i\wedge\urcorner P_i)\rightarrow Q (o símbolo \exists acompanhado do i representa “existe pelo menos um i tal que …”).
Bem, qual a conseqüência do Teorema 2? Agora entra uma parte um pouco filosófica e interpretativa, mas se uma teoria é composta por um número finito de proposições P_1, P_2, …, P_n, que assumem-se verdadeiras, basta apenas a contradição em apenas uma destas proposições para que seja possível, a partir desta única contradição, provar qualquer outra coisa, qualquer resultado ou conseqüência lógica a partir disso. Em outros termos, seria possível flexivelmente provar o que se deseja livremente, e logicamente, a partir da teoria. Eu chamo desta proposição P_i, responsável pela contradição P_i\wedge\urcorner P_i, de semente de contradição. Ela poria em risco toda uma abordagem imparcial e logicamente estruturada de qualquer teoria. Quando descobri isso fiquei preocupado. Bastante.
Mas vamos discutir um pouco isso. Assumindo que eu não tenha errado alguma coisa nas demonstrações, temos dois pontos discretos de que podemos tirar proveito, e aprender lições com isso. Primeiro: eu disse se a teoria fosse composta por um número finito de proposições. Hora, se sabemos enumerar e dispor todas estas proposições é uma coisa, mas parece bastante razoável que, na verdade, qualquer teoria seja composta por uma infinidade de proposições que assumimos, implicitamente ou explicitamente. É um conjunto infinito de enunciados, não finito. E o teorema acima registra a finitude do sistema estudado. Vale a pena ser rígido neste ponto, pois conjuntos infinitos possuem propriedades distintas de conjuntos finitos.
Mas digamos que seja um conjunto finito, e daí? Bom, é só não usar a contradição para provar nada, ok? Imagino que seja possível fazer isso. Mas só é possível se evitar fazê-lo se mantermos o olho atento a esse tipo de coisa, por meio de reflexão, como sugeri no início do post. Acredito, e isso é Opinião com “O” maiúsculo, que seria possível manter a teoria com uma pequena contradição, que tem um risco potencial que causar um grande estrago se usada (o maior possível, inclusive de falsear todas as outras premissas da teoria), mas não fará nada enquanto se mantenha atento para sua possível presença. Acho também que, mesmo que o número dessas premissas de que dependem qualquer teoria seja finito, certamente é um número grande. Grande o suficiente para que seja, usando informalmente este termo, “provável” haver um certo número de contradições. Talvez elas possam ser evitadas através de definições, como os matemáticos fizeram em momentos cabeludos, resultado da descoberta de paradoxos nas bases da matemática. Não sei, e acho que minhas especulações deveriam parar por aqui.

Agora eu volto para o exemplo numérico, a história que contei sobre Hardy. Ela me remete uma piada matemática, publicada na Revista Cálculo, Edição 22 (Ano 2, 2012):

Teorema: 4=3
Prova: Suponha que a+b=c. Reescreva isso como 4a-3a+4b-3b=4c-3c. Reorganizando: 4a+4b-4c=3a+3b-3c. Deixe as constantes em evidência: 4(a+b-c)=3(a+b-c). Cancele o (a+b-c) dos dois lados: 4=3.

Na verdade pode-se provar, usando a estrutura acima, que qualquer número x é igual a qualquer outro y. Por que esse resultado estranho? Porque em uma dada etapa da demonstração multiplicou-se os dois lados da equação por 0. Essa operação leva a inconsistências, pois se qualquer número multiplicado por 0 é zero, então x\cdot 0=y\cdot 0 =0. Concluir que x=y a partir daí é que é o problema, pois quaisquer números x ou y escolhidos levam ao mesmo resultado, e números distintos, como 4 e 3, teriam as mesmas propriedades matemáticas. Pensa que não multiplicamos nada por zero no teorema acima? Quando assumimos a+b=c, estamos dizendo que a+b-c=0. E esse é o fator de multiplicação que surge na expressão 4(a+b-c)=3(a+b-c), que na verdade representa 4\cdot 0=3\cdot 0. Portanto, a moral da história é essa: não multipliquem equações por 0 (operação relacionada com divisão por zero, operação não permitida na matemática), por mais discreta que seja a forma com que ele se mostre presente (como a+b-c, no exemplo acima). Você pode deduzir absurdos, e olhe que eu quase cometi esse erro. Pode acontecer com você também, se não tiver cuidado.

Finalmente, como isso é uma contradição? Simples: x = x por definição para qualquer x. A partir do momento que admitimos x = y para quaisquer x e y, inclusive quando são os mesmos números, estamos fazendo algo como dizer que alguém é solteiro e casado ao mesmo tempo. Admitir essa possibilidade é uma contradição lógica. Números diferentes não são iguais, e vice-versa. Multiplicação por zero leva a coexistência das duas verdades, o que não é muito prático, pois o sistema lógico/matemático desanda.

Obs. 1: Algumas relações lógicas apresentadas como implicações são também equivalências. Ou seja, além de exibirem a forma P\rightarrow Q, também pode-se provar Q\rightarrow P, estabelecendo-se a equivalência P\Leftrightarrow Q. Não aludi esse fato porque só precisei das implicações para provar os teoremas, por isso optei pela simplicidade de omitir este fato.

Obs. 2: Aqui cabe uma alusão a “injustiça” para com as contradições. Elas são usadas em talvez a forma mais elegante de prova matemática, a redução ao absurdo (reductio ad absurdum). Parece-me que a contradição é como uma faca, que pode ser usada para cortar um delicioso pão ou para fazer mal a alguém. Paradoxos também, como mostrou Kurt Gödel ao usá-los em seus teoremas da incompletude.

Posted in Geral | 1 Comment

Estatísticas de 2014

The WordPress.com stats helper monkeys prepared a 2014 annual report for this blog.

Here’s an excerpt:

A San Francisco cable car holds 60 people. This blog was viewed about 3,100 times in 2014. If it were a cable car, it would take about 52 trips to carry that many people.

Click here to see the complete report.

Posted in Geral | Leave a comment

Ciclos de Carnot e crescimento de entropia – parte 1

(Referência de Max Planck acrescentada em 22/12/14)

Por um bom tempo a entropia tem me fascinado bastante. De fato, percebi que muitas pessoas (muitas mesmo) compartilham deste sentimento. Isso é bom, pois mostra que esta função de estado tem (ou pode ter) muitas facetas, mas por outro lado fica difícil distinguir, no mar de tantas interpretações, o que de fato é razoável ou não no seu uso para interpretações de fenômenos, que hoje em dia se estendem bem além da física ou da físico-química. Ela é usada para interpretar crescimento econômico, evolução, desenvolvimento psicológico e por aí vai. Confesso que sou bem pragmático com relação a isso tudo. Acho que, considerando que não sou o dono da verdade, prefiro acreditar como sendo razoável aquelas abordagens que tem o mínimo de demonstração matemática (esse mínimo varia de pessoa para pessoa, claro). A definição de entropia surgiu deste contexto, e analogias sem respaldo podem ser boas metáforas, mas carecem de sustentação se não saírem do domínio da nossa imaginação para o papel, para o computador, ou para o laboratório.

Neste espírito pretendo reavivar meu adormecimento blogueiro mostrando neste post:

a) Como a entropia “surge naturalmente” do ciclo de Carnot;

b) Como a entropia tende a aumentar num sistema fechado (usando ciclos de Carnot);

Como disse antes, a demonstração matemática tem muito peso no que fazemos com nossas interpretações. Para mim essa é uma função pouco citada mas deveras relevante da matemática na Química. Portanto tentarei demonstrar a) e b). O primeiro tópico é apresentado em bons livros de físico-química, nada muito novo. O segundo é bastante raro (pela minha pesquisa) e só encontrei uma demonstração para b) no “Thermodynamics” do Enrico Fermi. A prova dele é muito estranha. A primeira vez que vi, fiquei num misto de admiração com incredulidade, questionando-me: ele pode fazer isso mesmo? como ele sequer pensou nisso? Essa vale pela criatividade matemática, e talvez seja mais pertinente para o blog.

Pequena introdução

A descoberta e compreensão da entropia teve contribuição de vários pesquisadores (veja, por exemplo, o livro do Crease, “As Grandes Equações”), embora alguns cientistas sejam mais sucintos na sua lista, como o Peter Atkins, que lista quatro como os mais importantes (Sadi Carnot, Lord Kelvin, Rudolf Clausius, Ludwig Boltzmann) (dica: vejam este podcast em que o Atkins fala sobre o assunto. É hilária a incredulidade do apresentador com relação ao crescimento da entropia e como os entrevistados tentam explicá-lo em termos leigos, mas ainda sim de modo crível para o aparentemente cético entrevistador. Acho que ele reflete um pouco de nós mesmos, antes de aceitarmos a palavra de alguém que achamos intelectualmente superior).

Um dos motivos pelos quais acho que a entropia se destaca no campo da termodinâmica é que, embora tenhamos muitas razões para crer que a termodinâmica seja válida em todo o universo, justamente por ela não possuir a restrição de modelos de constituição microscópica da matéria, a entropia torna esta vastidão conceitual mais patente pois acredita-se que ela dita a tendência de evolução do universo. “Por que digo isso?”, você me/se pergunta. Bom, nosso conhecimento em termodinâmica diz que em sistemas abertos (trocam energia e massa) a energia de Gibbs diminui até não mais variar, o que nos diz que o equilíbrio de um dado processo foi alcançado. Num sistema isolado (não troca energia nem massa) a entropia é o critério para caracterizarmos o equilíbrio (invariância de grandezas macroscópicas com pressão, concentração, volume, …), aumentando até não mais mudar. Se considerarmos o universo um sistema fechado, temos que a entropia tende a aumentar ao longo de toda sua extensão, até o fim dos tempos, digamos assim. Daí surgiram os enunciados (da primeira e segunda lei da Termodinâmica) de Clausius:

“A energia do universo é constante [outra maneira de dizer que o universo é um sistema isolado]. A entropia do universo tende a um máximo.”

(muitos outros enunciados da 2ª lei da termodinâmica e das outras podem ser conferidos aqui: http://www.humanthermodynamics.com/2nd-Law-Variations.html)

Talvez seja pretensioso que nós, seres tão pequenos na vastidão do Universo ou do tudo ao nosso redor, sugerir que sabemos a sua tendência de evolução temporal. Bem, estando certos ou não, temos cérebros para usá-los, eu suponho. Portanto, certos ou não, certamente aprendemos com nossos erros. A própria natureza da 2ª lei é uma prova disso, já que na época de Clausius ela “sempre” aumentava num sistema isolado, e graças às contribuições de Boltzmann e outros sabemos que ela “muito, muito provavelmente” aumentará. Inclusive temos evidências de ela pode ser “violada” em sistemas pequenos [primeiro artigo e “polêmica” que causou], embora na verdade só se tenha verificado o caráter estatístico da entropia, e sua relação com probabilidade mais que com certeza de comportamento (dica de livro excelente que me indicou as referências dessa “heresia”: Decodificando o Universo, do Charles Seife).

Conhecimentos básicos

1) Lei dos gases ideais:

pV=nRT

O estado de um gás chamado ideal é caracterizado por certos valores das variáveis macroscópicas p (pressão), V (volume) e T (temperatura), estando estes relacionados pela equação de estado acima, onde R é a constante dos gases ideais e n é o número de mols do gás.

2) 1ª Lei da termodinâmica:

dUq + đw

\text{d}U=\bar{\text{d}}q+\bar{\text{d}}w

\text{d}U=\delta q + \delta w

Quando o estado de um sistema, como um gás ideal, muda na forma de variação de uma das variáveis macroscópicas citadas em 1) (por exemplo), dizemos que sua energia interna varia. Esta variação pode ser causada por transferência de energia na forma de calor, q, ou na forma de trabalho, w, este estando associado a quaisquer outros processos de mudança na energia interna que não seja por transferência de calor (trabalho mecânico, elétrico, etc.). Enquanto energia interna é uma função de estado, dependendo só do valor inicial e final, trabalho e calor não são, portando existem distinções na notação dos dois tipos de função. Funções de estado submetidas a variações infinitesimais são representadas pelo convencional “d”, como \text{d}U, e o motivo vêm do fato de funções de estado tem propriedades de diferenciais exatas, de modo que:

\displaystyle\int_{U_i}^{U_f}\text{d}U'=U'|_{U_i}^{U_f}=U_f-U_i = \Delta U

(o “ ‘ ”serve para diferenciar a variável de integração, U', da função U).

Ou seja, a função U segue o teorema fundamental do cálculo, sendo a integral entre um estado inicial e final (U_f e U_i) de sua diferencial igual à diferença entre os estados final e inicial. Uma outra forma, mais elegante na minha opinião, de mostrar que U (e qualquer outra função termodinâmica) é de estado é considerando U_f= U_i. Como a integral volta para o mesmo ponto inicial, é chamada de integral cíclica (ao longo de um ciclo), recebendo uma notação própria também:

\displaystyle\int_{U_i}^{U_i}\text{d}U'=\oint_{U}\text{d}U'=U_i-U_i=0

\displaystyle\oint\text{d}U'=0

Numa analogia, se você dá uma volta no quarteirão e volta para o mesmo ponto inicial, seu deslocamento no final foi zero. Porém você gastou sua própria energia (em termos leigos) para tanto, logo o “trabalho” que você teve não foi zero. E é isso que as diferenciais inexatas (đ, \bar{\text{d}} ou \delta) refletem em funções como calor e trabalho, que não dependem simplesmente dos estados iniciais (q_i e w_i) e finais (q_f e w_f):

\displaystyle\int_{q_i}^{q_f}\delta q'= q \neq q_f-q_i

\displaystyle\int_{w_i}^{w_f}\delta w' = w \neq w_f-w_i

(escolherei \delta para diferencial inexata por praticidade com o LaTeX no blog, mas acho que a notação mais livre de ambigüidades é đ)

Ou seja, as integrais cíclicas das funções q ou w são diferentes de zero:

\displaystyle\oint\delta q'\neq 0

\displaystyle\oint\delta w' \neq 0

Portanto a forma integral da primeira lei da termodinâmica, de acordo com as equações discutidas, é:

\Delta U=q+w

a despeito das formas diferenciais apresentadas no início deste subtópico. Observe que a notação para forma integral de equações com outras funções de estado são bastante comuns, como no uso de \Delta H para entalpia e \Delta G para energia de Gibbs.

Para mais informações sobre diferenciais exatas e inexatas consultar:

=> http://www.eoht.info/page/Inexact+differential (breve história)

=> McQuarrie, D. A.; Simon, J. D.; Molecular Thermodynamics, pgs 188, 189, 192, 193, 239, 240 (1999) (definições e explicações rápidas e sóbrias)

=> Bassi, A. B. M. S.; O Conceito de Propriedade Termodinâmica; artigo do Chemkeys (2006) (explicações mais aprofundadas)

=> Max Planck, hoje tido como quem plantou a semente da mecânica quântica, tinha termodinâmica como um lazer, e escreveu um livro chamado “Treatise on Thermodynamics”. Na página 57 deste livro (podem consultar o livro aqui) é possível ver a demonstração de um exemplo de quais seriam as implicações de tratar q como uma função de estado, ou seja, usar \text{d}q (diferencial exata) ao invés de \delta q (uma diferencial inexata). Acho que o exemplo serve para ilustrar como é importante de fato fazer a distinção entre diferenciais em termodinâmica.

3) Convenções do sinal de q e w

O sistema é uma parte do espaço que selecionamos para investigar pelo método científico (ou é o que se espera). Por vizinhança se compreende todo o espaço ao redor do sistema, englobando-o. Calor e trabalho podem fluir entre o sistema e sua vizinhança. A convenção da IUPAC (3ª Edição do Green Book) é tal que trabalho exercido no sistema ou calor recebido por ele (aumentando sua energia) são positivos: w > 0 e q > 0. A figura abaixo representa pictoricamente esta convenção:

convencao1

Adicionalmente, aproveito a oportunidade para falar sobre os tipos de sistemas termodinâmicos e as restrições (paredes) que os caracterizam (ou definem):

Sistema isolado: sem troca de energia (trabalho e calor) e matéria entre sistema e vizinhança. Paredes adiabáticas (impedem troca de calor), rígidas (impedem que o sistema produza ou receba energia na forma de trabalho) e impermeáveis (impedem transferência de matéria).

Sistema fechado: Não permite transferência de massa ou matéria, mas permite troca de energia (calor ou trabalho). Paredes impermeáveis, podendo ser adiabáticas (ou não) ou rígidas (ou não).

Sistema aberto: Permite transferência de energia (trabalho e calor) e de massa. Paredes permeáveis são uma obrigação, e por conseqüência há transferência de calor. Elas podem ser rígidas ou não.

Numa ilustração podemos resumir estas definições:

convencao2

4) Trabalho mecânico e trabalho termodinâmico

O trabalho mecânico, w, é um escalar (número) resultante do produto interno entre dois vetores, um vetor força, \bold{F}, e um vetor deslocamento, \bold{r}:

w=\bold{F}\bullet\bold{r}

O produto interno entre dois vetores é o produto da norma (“comprimento”) dos dois vetores, representada geralmente por “|| vetor ||” ou “| vetor |”, pelo cosseno do ângulo \theta entre eles:

w=\bold{F}\bullet\bold{r}=\|\bold{F}\|\cdot\|\bold{r}\|\cdot \text{cos}\ \theta

Se o ângulo entre eles é menor que 90º, \text{cos}\ \theta > 0 e o trabalho é positivo (um dos componentes da força aplicada e vetor deslocamento estão na mesma direção). Se o ângulo é igual a 90º o trabalho é nulo (por isso que mover um objeto suspenso no ar sem mudar sua altura em relação ao chão não gera trabalho no vácuo), e se o ângulo é maior que 90º e menor que 180º o trabalho é negativo.

Um deslocamento infinitesimal \text{d}\bold{r} resulta em um infinitésimo de trabalho da seguinte maneira:

\delta w = \bold{F}\bullet\text{d}\bold{r}

Vamos decompor os vetores de deslocamento em eixos perpendiculares (numa base vetorial):

\bold{F}=\|\bold{F}_x\|\cdot\bold{x}+\|\bold{F}_y\|\cdot\bold{y}+\|\bold{F}_z\|\cdot\bold{z}=F_x\cdot\bold{x}+ F_y\cdot\bold{y}+ F_z\cdot\bold{z}

\text{d}\bold{r}=\|\text{d}\bold{r}_x\|\cdot\bold{x}+\|\text{d}\bold{r}_y\|\cdot\bold{y}+\|\text{d}\bold{r}_z\|\cdot\bold{z}=\bold{x}\cdot\text{d}r_x+\bold{y}\cdot\text{d}r_y+\bold{z}\cdot\text{d}r_z

Em que os vetores \bold{x}, \bold{y} e \bold{z} são unitários e perpendiculares entre si, e F_x, F_y e F_z são a norma das componentes do vetor força nas direções dos vetores \bold{x}, \bold{y} e \bold{z} (vetores estes que são as projeções do vetor \bold{F} nos vetores \bold{x}, \bold{y} e \bold{z}). O mesmo vale para as projeções do vetor deslocamento. O produto interno entre \bold{F} e \text{d}\bold{r} é, portanto:

\delta w=\bold{F}\bullet\text{d}\bold{r}=\bold{F}_x\bullet\text{d}\bold{r}_x+\bold{F}_y\bullet\text{d}\bold{r}_y+\bold{F}_z\bullet\text{d}\bold{r}_z

\delta w=\bold{F}\bullet\text{d}\bold{r}=F_x\cdot\text{cos}\ \theta_x\cdot\text{d}r_x+ F_y\cdot\text{cos}\ \theta_y\cdot\text{d}r_y+ F_z\cdot\text{cos}\ \theta_z\cdot\text{d}r_z

Em que os ângulos entre as componentes dos vetores força e deslocamento nas direções \bold{x}, \bold{y} e \bold{z} ( \theta_x, \theta_y e \theta_z) são 0º ou 180º. Mas este sistema de coordenadas ( \bold{x}, \bold{y} e \bold{z}) pode ser modificado de maneira que simplifique nossa vida. Se ajustarmos uma direção ( \bold{x}, por exemplo) para ser a direção do deslocamento, as componentes do deslocamento em outras direções ( \bold{y} e \bold{z} neste caso) são zero: \text{d}r_y=\text{d}r_z = 0. Temos então que:

\delta w=\bold{F}\bullet\text{d}\bold{r}=F_x\cdot\text{cos}\ \theta_x\cdot\text{d}r_x

A partir de agora podemos simplificar a notação já que sabemos que \text{d}r_x refere-se à direção do deslocamento qualquer que seja (podemos dizer que é simplesmente \text{d}r), o mesmo valendo para a força (componente do sentido do deslocamento) e o ângulo:

\delta w=\bold{F}\bullet\text{d}\bold{r}=F\text{cos}\ \theta\text{d}r

O ângulo é, como dito anteriormente, ou 0º (força e deslocamento no mesmo sentido) ou 180º (força e deslocamento em sentidos opostos). Vamos considerar unicamente o primeiro caso (único pertinente para os cálculos posteriores com termodinâmica):

\delta w=\bold{F}\bullet\text{d}\bold{r}=F\text{d}r

Para obtenção do trabalho do processo, integramos ambos os lados da equação acima:

w=\displaystyle\int\delta w'=\displaystyle\int F\text{d}r'

Quando tratamos de trabalho mecânico, usualmente o relacionamos com o deslocamento do centro de massa do objeto, \Delta r_{cm}, que neste caso é o mesmo deslocamento do ponto onde a força é aplicada, \Delta r, como no exemplo abaixo.

plano_inclinado

Mas no caso do trabalho termodinâmico, o deslocamento do centro de massa não é necessariamente o mesmo do ponto onde a força é aplicada, como nesta compressão de um fluido homogêneo por um pistão:

compressao

Como bem discutido neste post, faz mais sentido definir o trabalho termodinâmico como pelo deslocamento do ponto onde a força é aplicada, sendo este mais geral, e o trabalho associado à mudança de posição do centro de massa sendo chamado de pseudo-trabalho (alguns comentários aqui). O exemplo mais ilustrativo da importância desta escolha é considerar um cilindro com dois pistões em sentidos opostos. Se os dois são pressionados de modo a reduzir o mesmo volume de fluido dentro dele, o centro de massa não muda de posição, e o trabalho associado a este processo seria zero. O trabalho medido a partir do deslocamento dos pontos onde a força é aplicada, por outro lado, não o é. Por isso em sistemas de compressão/expansão de gases o deslocamento envolvido no trabalho é o quanto que o pistão se move (isto é, o trabalho obtido a partir de \Delta r, e não de \Delta r_{\text{cm}}).

Agora vamos fazer a clássica extensão do trabalho mecânico para o trabalho termodinâmico. Pensando ainda no exemplo do cilindro com um fluido (digamos um gás ideal), se uma força é exercida pelo pistão, aplica-se uma pressão ( p_{\text{ext}}, não necessariamente igual à pressão do gás, p) diretamente proporcional a esta força :

p_{\text{ext}}=\displaystyle\frac{F}{A}

Sendo A a área pela qual a força está distribuída, neste caso a área do cilindro. Usando esta relação na equação para o trabalho mecânico:

w = \displaystyle\int F\text{d}r'=\displaystyle\int p_{\text{ext}}A\text{d}r'=\displaystyle\int p_{\text{ext}}\text{d}V'

Já que a variação do volume do gás é reflexo da variação unicamente da altura do cilindro (isto é, \text{d}V=A\text{d}r, relação não só válida para cilindros, mas para qualquer objeto tridimensional com área transversal constante ao longo de uma direção).
Agora vamos à questão do sinal do trabalho, de maneira a adequá-lo a nossa convenção de w>0 para trabalho exercido no sistema e w<0 exercido pelo sistema. Como numa compressão a vizinhança (na verdade parte dela: o pistão) exerce trabalho no sistema, e a variação de volume é negativa ( \text{d}V<0), o trabalho só pode ser positivo (como exige nossa convenção) se um sinal de menos for colocado na frente da integral:

w = -\displaystyle\int p_{\text{ext}}\text{d}V'

E caso façamos uma expansão do gás, a convenção diz que o trabalho deve ser negativo, o que de fato ocorre ao usar a equação acima, já que \text{d}V>0.
Se o trabalho for realizado de maneira reversível a temperatura constante, numa chamada expansão/compressão isotérmica, diminui-se (ou aumenta-se) a pressão do pistão de maneira lenta o suficiente para que o gás entre em equilíbrio térmico com a vizinhança a cada etapa. Neste caso a pressão externa entra em equilíbrio com a interna em cada etapa, e o trabalho total do processo é a contribuição de cada uma destas etapas, na forma da integral da pressão como na equação acima, só que pode-se usar o fato de que nessas condições a pressão externa varia de acordo com a equação de estado do gás, a equação dos gases ideais, por exemplo:

w=-\displaystyle\int_{V_i}^{V_f} p_{\text{ext}}\text{d}V'=-\displaystyle\int_{V_i}^{V_f}\frac{nRT\text{d}V'}{V'}=-nRT\displaystyle\int_{V_i}^{V_f}\frac{\text{d}V'}{V'}=-nRT\text{ln}(V_f/V_i)

Essa equação serve para uma expansão ( V_f>V_i) ou compressão ( V_f<V_i) isotérmica reversível de um gás ideal. Outro tipo de expansão/compressão reversível que nos será útil é adiabática. Nela não há troca de calor com o ambiente, logo não há como manter a temperatura do gás constante quando se expande ou comprime o gás. Neste caso a expressão para o trabalho é diferente, e podemos usar a primeira lei da termodinâmica (com q=0):

\Delta U=w

O trabalho pode ser obtido considerando que \text{d}U é uma diferencial exata. Se uma diferencial exata é uma função de certo número de variáveis independentes, ela pode ser expressa a partir da soma das derivadas parciais destas variáveis. Isto é, no caso da energia interna, considere que U=U(V,T) (a pressão não é uma variável independente, já que conhecendo V e T obtêm-se p), podemos expressar \text{d}U como:

\text{d}U=\left(\displaystyle\frac{\partial U}{\partial V}\right)_T\text{d}V+\left(\displaystyle\frac{\partial U}{\partial T}\right)_V\text{d}T

Onde (\partial U/ \partial V)_T é a derivada parcial de U em relação à V mantendo T constante, e (\partial U/ \partial T)_V é a derivada parcial de U em relação à T mantendo V constante. Estas derivadas parciais podem ser visualizadas como as derivadas tradicionais das curvas que surgem quando cortamos uma seção transversal de U ao mantermos uma das variáveis constantes. Estas derivadas são ilustradas abaixo para um ponto U(a,b) qualquer:

derivada_parcial

(parte da figura tirei daqui)

Como num gás ideal as partículas (ou moléculas) não interagem, mudanças no volume aumentam a proximidade entre elas mas sem aumentar a energia interna, proporcional unicamente a temperatura neste modelo idealizado. Consequentemente para este caso (\partial U/ \partial V)_T e, portanto:

\text{d}U=\left(\displaystyle\frac{\partial U}{\partial T}\right)_V\text{d}T=C_V\text{d}T

Aqui definimos a capacidade calorífica a volume constante, C_V como a derivada parcial da energia interna em relação à temperatura mantendo-se o volume constante. Substituindo esta relação na integral da energia interna em uma expansão/compressão adiabática de um gás ideal:

\Delta U=w=\displaystyle\int\text{d}U'=\displaystyle\int C_V\text{d}T'
ou

\delta w=C_V\text{d}T

Agora que temos equação para o trabalho de expansão/compressão adiabática de um gás ideal (já que só depende da capacidade calorífica a volume constante), vamos obter uma equação que será usada na parte 2 do post, que relaciona os volumes iniciais e finais do processo adiabático com a variação de temperatura. Considerando que temos apenas trabalho de expansão/compressão volumétrica, a seguinte relação é válida:

\delta w=-p_{\text{ext}}\text{d}V=C_V\text{d}T

Se o processo é reversível podemos fazer p=p_{\text{ext}} e aplicar a equação dos gases ideais:

-p\text{d}V=C_V\text{d}T

-\displaystyle\frac{nRT\text{d}V}{V}=C_V\text{d}T

-\displaystyle\frac{\text{d}V}{V}=\frac{C_V}{nR}\cdot\frac{\text{d}T}{T}

-\displaystyle\int_{V_i}^{V_f}\frac{\text{d}V'}{V'}=\frac{C_V}{nR}\displaystyle\int_{T_i}^{T_f}\frac{\text{d}T'}{T'}

-\text{ln} (V_f/V_i)= \text{ln}(V_i/V_f)=\displaystyle\frac{C_V}{nR}\text{ln} (T_f/T_i)= \text{ln}(T_f/T_i)^{C_V/nR}

V_i/V_f=(T_f/T_i)^{C_V/nR}

V_iT_i^{C_V/nR}= V_fT_f^{C_V/nR}

Bom, por hora é isso aí. Até a continuação do post. o/

Posted in Geral | Leave a comment

Química em linguagem formal – 4

Cinética Química

(observação histórica acrescentada em 22/12/14)

Seja uma reação química abaixo:

a_1\text{A}_1 + a_2\text{A}_2 + ... \rightleftarrows\ b_1\text{B}_1 + b_2\text{B}_2 + ...

Sendo a_i e b_j os coeficientes estequiométricos das espécies \text{A}_i (um reagente qualquer) e \text{B}_j (um produto qualquer), respectivamente.

Def. 1: O número estequiométrico da espécie i é definido de maneira que:

v_i = \left\{\begin{aligned} -a_j\ (\text{se for referente ao reagente}\ \text{A}_j) \\ b_k\ (\text{se for referente ao produto}\ \text{B}_k) \end{aligned} \right. \qquad(1)

Def. 2: O número de mols de uma espécie i (n_i) em um tempo t (n_{i,t}) depende de uma variável chamada extensão da reação, \xi_t (uma função unicamente do tempo, e não de qual espécie i se escolha) da seguinte maneira: n_{i,t}(\xi_t) = n_{i,0}(\xi_0)+\xi_{t}v_i. A extensão da reação, que deve obedecer a dependência acima para todos os reagentes e produtos, é definida como:

\xi_t=\displaystyle\frac{n_{i,t}(\xi_t)-n_{i,0}(\xi_0)}{v_i}\qquad(2)

Observe que para t = 0:

\xi_0=\displaystyle\frac{n_{i,0}(\xi_0)-n_{i,0}(\xi_0)}{v_i}=0

Ou seja, em t = 0 a extensão da reação é nula: \xi_0 = 0. Logo:

\xi_t=\displaystyle\frac{n_{i,t}(\xi_t)-n_{i,0}(0)}{v_i}

O que nos permite simplificar a notação da equação (2) de maneira conveniente em alguns casos:

\xi=\displaystyle\frac{n_i(\xi)-n_i(0)}{v_i}\qquad(3)

Omitindo a dependência da extensão da reação com o tempo (sendo esta implícita).
Note-se que a extensão da reação pode ser calculada a partir do número de mols (inicial e num dado tempo t) de qualquer reagente ou produto i, e que é sempre uma grandeza positiva, visto que quando i é um reagente v_{i}<0 e n_{i}(\xi)-n_{i}(0)<0 (número de mols do reagente diminui com o tempo), a razão entre dois números negativos sendo positiva, e quando é um produto, v_{i}>0 e n_{i}(\xi)-n_{i}(0)>0 (número de mols de produto aumenta), a razão sendo também positiva.

Obs.: Segundo Ilya Prigogine (Introduction to Thermodynamics of Irreversible Processes, 3ª edição, pg. 4) o conceito de extensão da reação foi introduzido por Théophile De Donder, a referência mais antiga sendo de “Lecons de Thermodynamique et de Chimie-Physique”, Paris, 1920. Th. De Donder foi aluno de Henri Poincaré, tanto um matemático puro como um físico matemático (famoso pela Conjectura de Poincaré), e orientador do próprio Prigogine, Nobel de Química de 1977. Este último recebeu o Nobel por suas contribuições na área de termodinâmica dos processos irreversíveis. Sobre árvore genealógica citada ver site The Matemathics Genealogy para o trio.

Def. 3: Pode-se definir a velocidade de conversão da reação química como:

r = \dot{\xi} = \displaystyle\frac{d\xi}{dt}=\frac{1}{v_i}\frac{dn_i(\xi)}{dt}\qquad(4)

Onde se usou a equação (3) ao derivar a extensão da reação em relação ao tempo (o ponto em cima de \xi representa esta operação de maneira sucinta, sendo comum na literatura). Note que, pela regra da cadeia:

\displaystyle\frac{d\xi}{dt}=\frac{1}{v_i}\frac{dn_i(\xi)}{dt}=\frac{1}{v_i}\frac{dn_i(\xi)}{d\xi}\frac{d\xi}{dt}

Desta forma:

\displaystyle\frac{1}{v_i}\frac{dn_i(\xi)}{d\xi}=1\ \Rightarrow v_i=\frac{dn_i(\xi)}{d\xi}

Ou seja, poderíamos definir o número estequiométrico desta maneira alternativa (mas acho estranho fazer isso, já que definimos a extensão da reação usando o número estequiométrico antes, e embora equações funcionem no sentido lógico direto e inverso da igualdade, me parece que definições não).

Def. 4: A velocidade da reação é definida como a razão da velocidade de conversão pelo volume V, ou seja:

\text{v}=\displaystyle\frac{r}{V}=\frac{1}{V}\frac{d\xi}{dt}=\frac{1}{v_iV}\frac{dn_i}{dt}\qquad(5)

(aqui simplificou-se a notação fazendo n_i(\xi)=n_i)
Uma relação importante pode ser obtida considerando que o número de mols da espécie i equivale ao produto da concentração molar [i] com o volume V: n_i=[i]V. A derivada de n_i com o tempo é, pela regra do produto (de duas funções que exibem dependência com a variável de derivação):

\displaystyle\frac{dn_i}{dt}=[i]\frac{dV}{dt}+V\frac{d[i]}{dt}\qquad(6)

Portanto substituindo a equação (6) na (5):

\text{v}=\displaystyle\frac{1}{V}\frac{d\xi}{dt}=\frac{1}{v_iV}\frac{dn_i}{dt}=\frac{1}{v_iV}\left\{[i]\frac{dV}{dt}+V\frac{d[i]}{dt}\right\}\qquad(7)

A equação (7) permite obter a velocidade da reação quando tanto a concentração da espécie monitorada quanto o volume variam com o tempo. Tipicamente o volume se mantêm (ou é mantido) constante (dV/dt=0), de modo que a equação (7) pode ser simplificada:

\text{v}=\displaystyle\frac{1}{V}\left(\frac{d\xi}{dt}\right)_V=\frac{1}{v_iV}\left(\frac{dn_i}{dt}\right)_V=\frac{1}{v_iV}\left(V\frac{d[i]}{dt}\right)_V=\frac{1}{v_i}\left(\frac{d[i]}{dt}\right)_V\qquad(8)

A temperatura é tipicamente mantida constante em experimentos de cinética (a dependência da velocidade com temperatura é estudada separadamente da dependência da velocidade com a concentração, até porque a concentração pode mudar com a temperatura dependendo da dilatação térmica, efeito que não se deseja observar quando monitorando a variação da concentração de uma espécie com o tempo). Assim:

\text{v}=\displaystyle\frac{1}{V}\left(\frac{d\xi}{dt}\right)_{V,T}=\frac{1}{v_iV}\left(\frac{dn_i}{dt}\right)_{V,T}=\frac{1}{v_iV}\left(V\frac{d[i]}{dt}\right)_{V,T}=\frac{1}{v_i}\left(\frac{d[i]}{dt}\right)_{V,T}\qquad(9)

Pode-se relacionar a pressão parcial de um gás envolvido na reação com a velocidade da mesma assumindo-se que os gases exibam comportamento ideal, ou seja, obedeçam a equação p_iV=n_iRT, sendo p_i a pressão parcial do gás i. Como neste caso [i]=n_i/V=p_i/RT, substituindo na equação (9):

\text{v}=\displaystyle\frac{1}{V}\left(\frac{d\xi}{dt}\right)_{V,T}=\frac{1}{v_i}\left(\frac{d[i]}{dt}\right)_{V,T}=\frac{1}{v_iRT}\left(\frac{dp_i}{dt}\right)_{V,T}\qquad(9)

Podemos relacionar a velocidade da reação com a pressão total do sistema, ao invés da pressão parcial de uma única espécie. Para isso, considere a equação (3):

\xi=\displaystyle\frac{n_i(\xi)-n_i(0)}{v_i}

Que quando rearranjada fornece:

v_i\xi=n_i(\xi)-n_i(0)

Se numerarmos as espécies envolvidas na reação de espécie 1, espécie 2 e assim por diante, cada uma possui uma expressão própria nos moldes da equação acima a partir da qual a extensão da reação pode ser obtida:

\left\{\begin{aligned}v_1\xi=n_1(\xi)-n_1(0) \\ v_2\xi=n_2(\xi)-n_2(0) \\ ... \\ v_i\xi=n_i(\xi)-n_i(0) \\ ... \end{aligned}\right.

Somando-se todas as expressões acima:

\displaystyle\sum_{j}v_j\xi=\sum_{j}n_j(\xi)-\sum_{j}n_j(0)

\xi\displaystyle\sum_{j}v_j=\sum_{j}n_j(\xi)-\sum_{j}n_j(0)

\xi=\displaystyle\frac{\displaystyle\sum_{j}n_j(\xi)-\displaystyle\sum_{j}n_j(0)}{\displaystyle\sum_{j}v_j}\qquad(10)

Agora usando a equação dos gases ideais, p_i(\xi)V=n_i(\xi)RT\Rightarrow n_i(\xi)=(V/RT)p_i(\xi):

\xi=\left(\displaystyle\frac{V}{RT}\right)\frac{\displaystyle\sum_{j}p_j(\xi)-\displaystyle\sum_{j}p_j(0)}{\displaystyle\sum_{j}v_j}

O somatório das pressões parciais é a pressão total, p(\xi), e o somatório das pressões parciais iniciais é a pressão inicial, p(0):

\xi=\displaystyle\frac{V[p(\xi)-p(0)]}{RT\displaystyle\sum_{j}v_j}

Derivando a extensão da reação com relação ao tempo:

\left(\displaystyle\frac{d\xi}{dt}\right)_{V,T}=\displaystyle\frac{V}{RT\displaystyle\sum_{j}v_j}\left(\displaystyle\frac{dp(\xi)}{dt}\right)_{V,T}

Substituindo-se na equação (9):

\text{v}=\text{v}=\displaystyle\frac{1}{V}\left(\frac{d\xi}{dt}\right)_{V,T}=\displaystyle\frac{1}{RT\displaystyle\sum_{j}v_j}\left(\displaystyle\frac{dp(\xi)}{dt}\right)_{V,T}

E assim podemos definir a velocidade em termos da variação temporal da pressão total, considerando que os reagentes e produtos em fase gasosa se comportem idealmente.

Se a pressão (total), ao invés do volume, é mantida constante (condições de pressão e temperatura constantes são bem familiares aos químicos), a velocidade da reação pode ser acompanhada pela variação no volume. Isto é, mais uma vez assumindo comportamento ideal: n_i(\xi)=p_i(\xi)V(\xi)/RT. Substituindo na equação (10):

\xi=\left(\displaystyle\frac{1}{RT}\right)\frac{\displaystyle\sum_{j}p_j(\xi)V(\xi)-\displaystyle\sum_{j}p_j(0)V(0)}{\displaystyle\sum_{j}v_j}=\left(\displaystyle\frac{1}{RT}\right)\displaystyle\frac{V(\xi)\displaystyle\sum_{j}p_j(\xi)-V(0)\displaystyle\sum_{j}p_j(0)}{\displaystyle\sum_{j}v_j}

Já que a pressão total é constante, \displaystyle\sum_{j}p_j(\xi)=\displaystyle\sum_{j}p_j(0)=p(0)=p, tem-se:

\xi=\displaystyle\frac{p[V(\xi)-V(0)]}{RT\displaystyle\sum_{j}v_j}

Derivando com reação ao tempo:

\left(\displaystyle\frac{d\xi}{dt}\right)_{p,T}=\displaystyle\frac{p}{RT\displaystyle\sum_{j}v_j}\left(\displaystyle\frac{dV(\xi)}{dt}\right)_{p,T}

Relação que quando substituída na equação (7):

\text{v}=\displaystyle\frac{1}{V(\xi)}\frac{d\xi}{dt}=\displaystyle\frac{p}{V(\xi)RT\displaystyle\sum_{j}v_j}\left(\displaystyle\frac{dV(\xi)}{dt}\right)_{p,T}

Posted in Geral | Leave a comment

O necessário e o suficiente

Lendo escritos de Josiah Willard Gibbs (quem consideramos o pai da termodinâmica química, da regra das fases, o homenageado na energia de Gibbs, G ou F, outrora energia livre de Gibbs, o padrinho da teoria do ensembles, entre outras contribuições não menos importantes) e notei que muito frequentemente ele falava que uma causa era necessária e suficiente para que alguma coisa fosse verdadeira. E volta e meia me deparei com esta afirmação aqui e acolá, em trabalhos de Flory e trabalhos de dinâmica não-linear. Então resolvi investigar mais afundo.
Este assunto (causas necessárias e suficientes) é largamente explorado em lógica matemática e filosofia, também envolvendo estatística quando aplicada na detecção da causa de fenômenos. É pode ser útil em química também, como ilustrarei no final. Por enquanto confiem em mim.
Antes de explicar o que é uma causa necessária ou suficiente para ocorrência de um evento, preciso revisar duas notações comuns em lógica. Considere duas proposições p e q. Podemos dizer que q é uma conseqüência de p, ou “se p, então q”, usando a seguinte representação: p\Rightarrow q. Se queremos negar uma proposição p usamos a notação \sim p ou \urcorner p. Por exemplo, se p: Sócrates é humano, então \sim p: Sócrates não é humano.

Vamos às definições:

Se p é uma causa necessária para a ocorrência de q, então q não pode ocorrer sem que p tenha ocorrido (\sim p\Rightarrow \sim q). O necessário não garante que uma coisa implique a outra, só garante que a ausência de uma implica a ausência de outra.

Se p é uma causa suficiente para a ocorrência de q, então sempre que p ocorrer, q também ocorre (p\Rightarrow q). O suficiente garante que uma coisa implique a outra, mas não necessariamente o sentido inverso, ou seja, que a outra coisa implique a uma.

Quando uma causa é necessária e suficiente, usa-se a denominação “p se e somente se q” (p\Leftrightarrow q, ou p sse q ou ainda p iff q, do inglês “if and only if”). Geralmente se prova esta relação provando que “se p, então q” e “se q, então p” são simultaneamente verdadeiras. Mas isso é o equivalente a dizer que p é causa necessária e suficiente para q ocorrer. Isso é verdade porque se pode provar que \sim p\Rightarrow \sim q equivale a q\Rightarrow p. Logo dizer que p é causa suficiente (p\Rightarrow q) e necessária (q\Rightarrow p) para q equivale dizer “p se e somente se q” (p\Leftrightarrow q).

Obs.: Por p\Rightarrow q não entenda que isso significa unicamente que q ocorre em função de uma causa, que neste caso é p. Usei largamente esta interpretação pela sua importância nas ciências naturais, e para explicar causalidade, onde ela é necessária. Mas essa proposição (p\Rightarrow q) também pode significar “caso p seja verdadeiro, q também o é”, interpretação mais comum em lógica e em filosofia.

Vejamos um exemplo. Estudar para a prova é uma condição necessária para que eu tire uma nota boa. Isto é, não tirarei uma nota boa a menos que estude. Porém não é uma causa suficiente, pois estudar não garante que eu tire essa nota boa. Talvez aumente a probabilidade de que eu tire uma nota boa, considerando o evento parcialmente probabilístico (que depende de estado de humor, meu e do professor, bem como uma série de outros fatores). Mas isso é outra história.
Para aqueles que acham improvável que esta história toda seja pertinente para químicos, reproduzirei uma prova de um teorema em cinética química. A prova é do químico Vítor Ferreira Ribeiro, que gentilmente me autorizou a reproduzi-la após pedi-lo. Ele possui um blog não científico que pode ser conferido aqui. Apesar de “não científico” segundo o autor, alguns cálculos e discussões são inegavelmente de um acadêmico. Vale a pena dar uma conferida. Ele também me indicou este blog: Todas as configurações. Eu recomendo uma olhada nele. Recentemente foi postada uma matéria sobre o caos bem interessante, em homenagem a um dos ganhadores da medalha Fields, o primeiro brasileiro a ser agraciado com o prêmio: Artur Ávila (palmas efusivas). Só falta o Nobel. Vamos ralar que um dia ele será nosso (depois de ser da humanidade, é claro). Sem mais delongas, segue a demonstração do caro Vítor (notas minhas em colchetes):

………………………………………………………………………………………………………

“Teorema:
O único caso em que a meia-vida de uma reação não depende da concentração inicial é se, e somente se, a reação for de primeira ordem.

Demonstração
Primeiramente, demonstremos que uma condição necessária para que a meia-vida de uma reação de ordem n seja independente da concentração inicial é tal que n=1.

Para uma reação do tipo \text{A}\rightarrow\text{P}, com v=k[\text{A}]^n, a meia-vida é dada por:

t_{1/2}=\displaystyle\frac{[\text{A}]_0^{1-n}\left(2^{n-1}-1\right)}{k(n-1)}

\displaystyle\frac{\partial t_{1/2}}{\partial [\text{A}]_0}=\frac{[\text{A}]_0^{-n}(1-2^{n-1})}{k}

Se t_{1/2} não depender de [\text{A}]_0, \displaystyle\frac{\partial t_{1/2}}{\partial [\text{A}]_0}=0. Impondo esta condição, vem:

\displaystyle\frac{[\text{A}]_0^{-n}(1-2^{n-1})}{k}=0 \therefore[“portanto”: usado em provas de consequências lógicas]

\displaystyle\frac{(1-2^{n-1})}{[\text{A}]_0^{n}k}=0 \therefore 1-2^{n-1}=0 \therefore 2^{n-1}=1 \therefore n-1=0

n=1

Em seguida, demonstremos que a condição n=1 é condição suficiente para que a meia-vida independa da concentração inicial.

v=k[\text{A}]^n, para n=1, temos que v=k[\text{A}]

-\displaystyle\frac{d[\text{A}]}{dt}=k

-\displaystyle\frac{d[\text{A}]}{[\text{A}]}=kdt \therefore \displaystyle\int_{[\text{A}]_0}^{[\text{A}]'}\frac{d[\text{A}]}{[\text{A}]}=-\int_{0}^{t'}kdt

\text{ln}\displaystyle\frac{[\text{A}]'}{[\text{A}]_0}=-kt'

Quando [\text{A}]'=\displaystyle\frac{[\text{A}]_0}{2}, t'=t_{1/2}

\text{ln}\displaystyle\frac{1}{2}=-kt_{1/2} \therefore t_{1/2}=\displaystyle\frac{\text{ln}2}{k}

(Q. E. D.) [Quod erat demonstrandum = “como se queria demonstrar”]”

………………………………………………………………………………………………………

Para quem quiser ter um contato maior com lógica de um ponto de vista prático, através de provas e pela relação do assunto com teoria dos conjuntos, recomendo fortemente o livro do Andrew Wohlgemuth, Introduction to Proof in Abstract Mathematics. O livro é simplesmente incrível. Eu, mesmo sendo um químico, consegui acompanhá-lo (e fazendo os exercícios) até pouco antes da metade do livro, pois fiquei sem tempo e cabeça (precisei de lazeres mais leves). É um livro muito transparente no que quer ensinar e em como ensina. E é um exemplo claro de que provas são feitas para clarificar as coisas, não para nublá-las numa aura exótica inacessível.

Usei como referência importante o livro da Susanna S. Epp, Discrete Mathematics with Applications (4ª Edição). Me parece um livro bom, bastante direto, pelo pouco que pude ver dele. Fica a dica. Outras referências:

http://std.about.com/od/overviewofstds/a/causality.htm (exemplos de combinações de causas necessárias e suficientes, ou na ausência de uma ou ambas as condições, na medicina)
http://www.sfu.ca/~swartz/conditions1.htm (definições e exemplos)
http://en.wikipedia.org/wiki/Causality (tipos de causas)
http://en.wikipedia.org/wiki/Causality_%28physics%29 (causalidade em física)
http://en.wikipedia.org/wiki/Necessity_and_sufficiency (sobre necessário e suficiente)
http://www.txstate.edu/philosophy/resources/fallacy-definitions/Confusion-of-Necessary.html (sobre confusões entre os tipos de causa)

Resumão:

p é uma condição necessária para q” significa “se p, então q ( p\Rightarrow q)”
p é uma condição suficiente para q” significa “se \sim p, então \sim q (\sim p\Rightarrow \sim q)”
p é uma condição necessária e suficiente para q” significa “p se e só se q ( p\Leftrightarrow q)”

Posted in Geral | Leave a comment

Nem todos os sinais de igual são iguais

Olá a todos. Este post é meio que uma continuação do post Como escrever equações, e a necessidade de fazê-lo veio de dúvidas minhas em relação a alguns símbolos cujo significado desconhecia. Resolvi correr atrás para entendê-los, e descobri que existe uma certa divergência ou discordância entre suas aplicações, ou eu poderia dizer convergência, onde um símbolo é usado para diferentes funções. De um modo geral tentei conciliar o que a IUPAC (a partir do Green Book, que basicamente segue o SI) e os matemáticos empregam, tentando eliminar as divergências e dando exemplos que clarifiquem seus usos. A lista abaixo resume minhas investigações:

\boxed{=\ (\text{igual a})} Ex.: 2 = 1 + 1. A igualdade entre duas funções f(x) e g(x) é válida se ocorre para alguns valores de x, sendo f(x)=g(x).
\boxed{\equiv\ (\text{identicamente igual a; por defini\c{c}\~ao})} Ex.: Se duas funções f(x) e g(x) são iguais para todo x, elas são identicamente iguais, logo f(x)\equiv g(x). Tipicamente o símbolo é usado para representar definições, embora não seja a recomendação da IUPAC (e SI), tão pouco dos matemáticos. Para isso pode-se usar o símbolo na linha abaixo.
\boxed{\overset{def}{=}\ \text{ou}\ \overset{\Delta}{=}\ \text{ou}\ := (\text{igual por defini\c{c}\~ao})} Ex.: \displaystyle\frac{df(x)}{dx}\overset{def}{=}\lim_{\Delta x \to 0}\frac{f(x+\Delta x)-f(x)}{\Delta x}. Naturalmente que frequentemente se omite o “def”, só usando o “=”, em muitos casos. E essa prática comum pareceu-me aceita, e bastante razoável em situações óbvias como a exemplificada, já que parece sensato chamar a atenção para uma definição somente quando ela não é óbvia.
\boxed{\approx\ (\text{aproximadamente igual a})} Ex.: \pi \approx 3,1416. Este me pareceu ser o mais aceito sinal de aproximação, quando se refere a um sentido geral do termo.
\boxed{\propto\ (\text{proporcional a})} Ex.: se p é a pressão de um gás e T é sua temperatura, p\propto T. Às vezes se usa o sinal “\sim” com a mesma finalidade (segundo IUPAC/SI). Eu particularmente não acho uma boa idéia, pois \propto é bem característico, e o símbolo citado tem outros significados, esmiuçados na linha abaixo.
\boxed{\sim\ (\text{assintoticamente igual a; se distribui de acordo com})} Ex.: n!\sim \sqrt{2\pi n}(n/e)^n. Se f(x)\sim g(x), então \displaystyle\lim_{x \to \infty}\frac{f(x)}{g(x)}=1, ou f(x)=g(x)+o\left(g(x)\right) para x \rightarrow \infty. O símbolo de Landau o(...), chamado de “pequeno o”, é explicado no final do post. O símbolo “\sim” também é usado para indicar a distribuição probabilística de uma variável aleatória, como em X\sim N(\mu,\sigma^2). Ou seja, a variável aleatória X se distribui de acordo com a distribuição normal, com média \mu e variância \sigma^2. Em textos em que os dois significados são necessários, acho conveniente ir para a notação mais incomum de “assintoticamente igual a” através do símbolo \simeq.

Mais alguns símbolos do gênero podem ser consultados no wikipédia, tanto símbolos correlatos ao sinal de igual quanto símbolos matemáticos em geral. Para referência do SI consultar wikipédia (nas referências das páginas tem o acesso ao documento original das normas do SI) ou nesta referência do NIST. Muito do que falei teve por base o “Handbook of Mathematics” de Bronshtein e colaboradores, 5ª edição, da Springer (2007). Se aparecerem mais símbolos frequentes (com significados distintos dos apresentados) eu acrescento neste post, como tenho feito com alguns, como o de História da Química ou o Como escrever equações.

Símbolos de ordem de Landau

Tive algum contato com os símbolos (ou notação) de Landau, e acho pertinente apresentá-los de maneira sucinta.
A notação serve para descrever o comportamento relativo de duas funções quando elas tendem a um ponto x=a ( a pode \pm\infty, aliás). O “grande O” e o “pequeno o” são descritos de maneira que:

Definição 1: se f(x)=O(g(x)) (lê-se f(x) é “grande O” de g(x)), então isso significa que \displaystyle\sum_{x \to a}\frac{f(x)}{g(x)}=A, sendo A uma constante diferente de zero;

Interpretação: Existe um valor a em cuja vizinhança o valor absoluto de f(x) é inferior à g(x) multiplicada por uma constante.

Definição 2: se f(x)=o(g(x)) (lê-se f(x) é “pequeno o” de g(x)), então \displaystyle\sum_{x \to a}\frac{f(x)}{g(x)}=0.

Interpretação: f(x) é menor (em valor absoluto) que qualquer fração de g(x) quando x é suficientemente próximo de a.

Obs: Existem outras definições. Elas estão presentes nas referências dadas no final do texto. As definições acima vêm do “Handbook of Mathematics”.

Ex.: \text{sen}(x)=O(x) para x\rightarrow 0, pois \displaystyle\sum_{x \to 0}\frac{\text{sen}(x)}{x}=1\neq 0. Ou seja, essa aproximação \text{sen}(x)\approx x só é válida nas vizinhanças de x\rightarrow 0.

É prática comum usar o “grande O” para representar o erro numa aproximação, como a feita a partir de expansão de Taylor. Por exemplo:
e^x=1+x+\displaystyle\frac{x^2}{2}+O(x^3) quando x\rightarrow 0

Significando que o erro é menor em valor absoluto que x^3 para x suficientemente próximo de zero na aproximação e^x\approx 1+x+x^2/2.

A aplicação desta notação nas expansões permite uma análise mais clara dos erros associados às aproximações feitas a partir delas, em como eles são propagados ao longo delas. Num produto de duas funções f(x)g(x), por exemplo, ambas aproximadas por uma expansão de Taylor. Uma dica para quem quer saber um pouco mais é dar uma olhada no seguinte documento, ou nestas outras referências:

http://www.math.columbia.edu/~nironi/taylor2.pdf
http://web.mit.edu/16.070/www/lecture/big_o.pdf
http://www.math.jhu.edu/~fspinu/405/landau%20notation.pdf
http://en.wikipedia.org/wiki/Big_O_notation

Posted in Geral | Leave a comment