quinta-feira, 2 de maio de 2013

Diagrama de Fases

Uma utilização muito importante em ciências físicas de um gráfico, é frente ao estudo de como se comportam as fases de compostos. Os gráficos que demonstram essas observações são chamados de Diagramas de Fase.

Os Diagramas de Fase podem conter diversas informações referente ao comportamento das fases de um composto ou mesmo compostos, frente a composição, temperatura, pressão...

Um dos diagramas de fase mais comuns de serem vistos é o da água, onde se estudam o comportamento físico das fases da mesma frente a mudanças de pressão e temperatura (gráfico P x T).




No diagrama podemos ver que existem três áreas uma onde temos somente sólido (a), uma onde somente temos líquido (b) e outra região onde somente temos gás (c). Essas fases ocorrem com a variação da pressão e da temperatura. 

Nota-se que a uma dada pressão podemos ter tanto sólido quanto líquido no sistema, porém se observarmos a temperatura, notamos que ela muda, ou seja, a pressão pode ser a mesma, porém em temperaturas baixas temos a água no estado sólido e a temperaturas mais elevadas (nessa mesma pressão), temos a água no estado líquido. Isso se dá pelo fato das moléculas estarem mais agitadas com o aumento da temperatura (temperatura é uma escala que mede a energia térmica existente no sistema), e com isso se moverem mais, se afastarem mais uma das outras, possuírem mais velocidade e choques.

Também podemos ver (agora fixando a temperatura) que a uma dada temperatura podemos ter tanto líquido quanto gasoso, porém com a pressão variando. Isso se dá pelo fato da pressão causar um maior empacotamento do sistema, ou seja, faz com que as moléculas se aproximem mais uma das outras. 

Observando esses fatos, podemos prever coisas inusitadas como, gelo no estado sólido só que em temperaturas acima de 0°C. Isso pode ser visto se a pressão for bastante alta, porém é óbvio olhando no gráfico que existe um limite para isso. O mesmo se dá para outros estados físicos como o gás. Em uma temperatura baixa podemos fazer a água ferver se a pressão estiver muito mais baixa que o normal. Esse efeito pode ser visto em regiões mais altas do planeta, sendo que a pressão torna-se inferior a 1 atm e com isso o composto passa para o estado gasoso com o auxílio de menor temperatura.

Um fato muito interessante pode ser visto na região que corresponde a linha da curva presente no diagrama. Quando o ponto correspondente a pressão x tempo (p,t) se mostra sobre a curva, o sistema se encontra em estado de equilíbrio entre as duas fases em questão. Por exemplo, entre (a) e (b) existe uma curva e sobre essa curva, os pontos plotados indicam o equilíbrio entre sólido e líquido. O Ponto Triplo é muito importante, pois nele, se encontram todos os estados físicos em equilíbrio. A temperatura onde ocorre o Ponto Triplo da água é  0,01°C (273,16 K) e a pressão de 611,73 Pa.

Também existe um outro ponto importante, conhecido como Ponto Crítico, que ocorre a temperatura de 374°C (647 K) e a uma pressão de 22,064 MPa (218 atm). Nessa temperatura e pressão, não há distinção entre a fase líquida e gasosa. Esse é o chamado fluido supercrítico.

Uma outra forma de se interpretar um diagrama de fases é via Temperatura x Frações Molares. Um método simples pode ser o da evaporação e condensação de um composto volátil como Etanol, adicionando-se pequenas quantidades de outro composto volátil como o Acetato de Etila. 

Esses compostos são levados para um sistema onde ocorre refluxo de um composto sendo aquecido, esse sistema possui duas formas de coleta de dados, um é via uma seringa (removendo o composto que está ebulindo em um balão) e o outro uma torneira que serve para extrair o condensado (produto destilado). Esse equipamento se chama Aparelho de Choppin-Cottrell, e pode ser visto na imagem abaixo:


O sistema deve ser feito saindo de 20 mL Etanol puro, sendo aquecido até sua temperatura se mostrar constante. Então se extrai (ao mesmo tempo) uma amostra do condensado e do líquido que sofreu ebulição  e armazenados em tubos de ensaio com rolha. Após isso se tem a adição de 5 mL de Acetato ao sistema, verifica-se quando a temperatura se mantém estável e se extrai novamente o condensado e o líquido ebulido. O precedimento é feito até uma temperatura estável em diversas adições de Acetato de Etila. O mesmo procedimento deve ser feito novamente, porém saindo de 20 mL de Acetato de Etila e adições graduais de 5 mL de Etanol ao meio. As amostras são armazenadas em tubos de ensaio para serem levadas até um Aparelho Refratômetro, que vai medir o índice de refração de cada amostra. Com isso pode-se calcular a composição de cada sistema. Teoricamente no equilíbrio a fração molar que se encontra no líquido, também vai ser observada na fase gasos, portanto o condensado deve possuir a mesma composição da fase líquida. Porém nem sempre isso pode ser visto, devido a erros do desenvolvimento do experimento, como produtos contaminados.

O Aparelho Refratômetro deve ser calibrado previamente com água destilada e então montado amostras dos compostos que serão trabalhados no experimento, contendo 2 mL de Etanol + Acetato de Etila por tudo de ensaio, porém com frações diferente, mas conhecidas, sendo que cada tubo de ensaio aumente em 10% a quantidade sequencial de cada composto em relação ao outro, ou seja, se em um tubo temos 80% de Etanol e 20% de Acetato de Etila, no tubo seguinte teremos 70% de Etanol e 30% de Acetato de Etila, até que tenhamos um tubo onde se encontre 100%  de Etanol e outro tubo com 100% de Acetato de Etila. Num total devem ser preparados 11 tubos de ensaio para a medição do índice de refração. A Tabela abaixo mostra os tubos e suas composições:



Abaixo temos a imagem do Aparelho Refratômetro, onde em destaque podemos ver a uma fonte de luz, água destilada e os tubos de ensaio contendo as amostras a serem analisadas no experimento.



Os dois compostos possuem temperatura de ebulição próximas (Etanol = 78,37 °C e Acetato de Etila = 77,1 °C). Porém com as adições ao composto puro, as temperaturas de ebulição começam a cair, até se manterem constantes. Esse efeito é conhecido como ponto de Azeotropia. No caso desses compostos, vamos ter um ponto de Azeotropia de mínimo, ou seja, a temperatura de ebulição diminui com a adição de compostos ao composto puro. Azeotropia quer dizer que os compostos vão ter um ponto de ebulição iguais, se comportando como uma substância pura. A imagem a baixo mostra o diagrama de um sistema binário com ponto azeotrópico de mínimo:

Onde o ponto verde corresponde ao ponto de azeotropia de mínimo, V é vapor, L é Líquido, 0-1 as quantidades das frações  X1 e Y1  dos compostos em pesquisa. Algo relevante sobre esse gráfico é que a pressão é mantida constante.




sexta-feira, 5 de abril de 2013

Efeito Fotoelétrico

O Efeito Fotoelétrico ou Efeito Hertz, foi observado pela primeira vez em 1839 por Alexandre Edmond Becquerel e confirmado em 1887 por Heinrich Hertz (daí o nome menos usual: Efeito Hertz).
Esse fenômeno consiste na emissão de elétrons de um material metálico, quando o mesmo é exposto a uma radiação eletromagnética (luz) que possui uma determinada frequência suficientemente alta perante ao material em questão, em outras palavras, essa radiação eletromagnética ao incidir sobre a placa de metal remove elétrons da mesma.

Ondas eletromagnéticas incidindo sobre uma placa metálica, fornecendo energia e causando a ejeção de elétrons.

A princípio o fenômeno parecia banal e pouco usual, porém mostrou-se de grande importância para o estudo corpuscular do comportamento da luz. Percebia-se que os elétrons provenientes dos orbitais dos átomos de metais eram ejetados quando uma luz de comprimento de onda pequeno, ou seja, de alta frequência, excitava-os. Esses elétrons se mantinham em regiões próximas ao núcleo, mantidos lá por forças de atração, porém quando uma luz de alta frequência excitava esses elétrons, fornecendo energia superior ou igual ao de remoção, eles eram ejetados dos orbitais. 

Um fato interessante era que não adiantava aumentar a intensidade das radiações eletromagnéticas  incidentes sobre o material metálico, afim de remover  elétrons com maior energia cinética, pois o que acontecia era somente o efeito de remover uma quantidade maior de elétrons do metal. Garantindo assim um efeito não esperado pelos especialistas.

Um fato interessante era interpretar a faixa de ondas da luz visível (como pode ser observado na figura à baixo). Constatou-se que radiações eletromagnéticas próximas e acima ao Ultra-Violeta (UV) possuíam energia para remover os elétrons dos metais com uma energia maior do que as luzes abaixo dessa faixa.

Faixas de ondas no Visível, no Infra-Vermelho e no Ultra-Violeta.

No espectro visível uma luz de cor azul possui muito mais energia que uma luz de cor vermelha, mas quando pensamos em intensidade de uma determinada luz, percebia-se que uma onda com mais intensidade sendo incidida sobre uma placa de metal, ao contrário de remover mais energeticamente os elétrons, somente causava a remoção de mais elétrons, mas sem um aumento da energia cinética dos mesmos, ou seja, era um fenômeno que não fornecia mais velocidade, mas sim mais elétrons ejetados. Isso batia de frente com o que a física clássica propunha (Os elétrons deveriam se mover mais rapidamente que as ondas incidentes).

No caso de luzes mais energéticas, os elétrons eram removidos com mais velocidade, isso se dava pelo fato da luz se comportar de maneira dual, ou seja, como onda e como partícula (partículas conhecidas como fótons, que também podem ser descritos como feixes de energia). Portanto estudo nos leva a uma nova interpretação da luz, não só com onda, mas também de forma corpuscular.

Um fóton de luz azul é mais energético que um fóton de luz abaixo de sua faixa, ou seja, ao imaginar um modelo com esferas rígidas, um fóton azul se chocaria como uma bola de bilhar mais energética que um fóton vermelho por exemplo, ou seja, uma esfera pode ser arremeçada com mais força que outra, porém não pode fornecer mais energia do que já possui. Em outras palavras, um fóton contendo determinada quantidade de energia choca-se com um elétron, transferindo sua energia para esse elétron. 

Isso explicava porque a energia não aumentava com a intensidade, mas sim a quantidade de elétrons ejetados. Quanto mais fótons eram incididos sobre a placa de metal, mais deles transferiam sua energia para elétrons, e dessa forma a quantidade de elétrons emitidos (sem alterar sua velocidade, energia cinética) aumentava com o aumento da incidência da luz.

Esse fenômeno foi explicado pelo jovem físico de vanguarda Albert Eisnten, no famoso ano milagroso de 1905. Esse trabalho concedeu-lhe em 1921 o Prêmio Nobel de Física.

A equação do Efeito Fotoelétrico foi descrita da seguinte forma por Einstein:


Onde h é a constante de Plank e f a frequência (hf simboliza o fóton), ø é a função trabalho (energia mínima para se remover um elétron de uma ligação atômica) e  E corresponde a energia cinética máxima dos elétrons expelidos (m é a massa do elétron expelido e v é a velocidade dos mesmos expelidos).

Como um todo a equação diz:
Energia do Fóton = Energia para remover o elétron + Energia Cinética do elétron ejetado.

Um experimento simples para detectar a ejeção de elétrons se baseia em um sistema elétrico aberto, que se torna fechado com a incidência de luz ultra-violeta em uma placa metálica, que ejeta elétrons na direção de um receptor (condutor), fechando o circuíto elétrico. Podendo então ser calculada a amperagem da corrente.

quinta-feira, 4 de abril de 2013

Movimento Browniano: Algo que parecia vida

Esse fenômeno tem caráter mecânico, e se baseia na movimentação de partículas macroscópicas de forma aleatória em um fluido. Como um todo a teoria é simples, sendo que, as partículas se movem devido ao choque das partículas com as moléculas do fluido onde as mesmas estão imersas.

O Movimento Browniano tem esse nome por te sido relatado pelo botânico escocês Robert Brown no ano de 1827, porém muitos outras pessoas já haviam reparado o mesmo efeito só que em outras situações, como grãos de poeira flutuando no ar. Um dos que foram anterior a Robert Brown e percebeu o fenômeno, mas sem conseguir explica-lo foi holandês Jan Ingenhousz em 1765.

 Robert Brown notou a movimentação aleatória quando estudava polén imerso em água. Ele viu algumas partículas minusculas flutuando e se agitando rapidamente dentro dos vácuolos (vacúolos são pequenas bolsas criadas dentro das células, eles são formados por membranas plasmáticas que envolvem reservas nutritivas e excretas) dos grãos de pólens. Ele repetiu o experimento diversas vezes e mesmo com partículas diferentes (Como macropartículas, que muitas vezes são confundidas com poeira), e o resultado sempre era o mesmo.

Na época que o fenômeno foi visto pelo botânico, não se conheia corretamente a estrutura das moléculas, com isso, parecia que as partículas possuiam movimento por conta própria, ou seja, quando Robert Brown notou a movimentação aleatória, ele pensou que aquele era na verdade o princípio da vida. Fato esse que muitos ciêntitas procuravam desvendar nesse período. Experimento sobre criacionismo eram comuns, como o do nascimento de ratos de montes de roupas sujas, surgimento de larvas de moscas sobre carne podre (Esses experimentos foram todos refutados pelo desenvolvimento de equipamentos mais apurados e observações mais detalhadas frente à natureza), dentre outros experimentos, que não serão explicados neste post para que não fujamos do foco. 

 Robert Brown não conseguiu explicar corretamente o fenômeno observado, porém em 1880 surgiu uma explicação matemática para o estranho fenômeno. Um matemático Thorvald N. Thiele usou-se de fractais para conseguir mostrar a estranha aleatoriedade envolvida no movimento. Fractais são objetos geométricos que podem ser divididos em infinitas partes semelhantes ao objeto inicial, sendo na maioria dos casos gerados por modelos repetitivos.

Fractais

Outro cientístas em 1900, independente do trabalho de Thorvald N. Thiele, também conseguiu resultados relevantes na explicação desse movimento, esse cientísta era Louis Bachelier, só que esse se usou das observações feitas por Brown na sua tese de PhD frente a modelos matemáticos aplicados em finanças.

Mesmo vários cientístas trabalhando em cima da aleatoriedade vista por Robert Brown, uma explicação que ser mostrava relevante frente ao fenômeno não havia surgido, sendo que somente em 1905 um cientísta de vanguarda conseguiu explicar o que estava ocorrendo com as partículas quando imersas em um fluido. Esse cientísta era o alemão Albert Einstein.

Albert Einstein estudava a Teoria Cinética dos Fluidos, que dizia que uma molécula de água (tendo como modelo uma esfera) devia mover-se forma aleatória, então, uma partícula que se encontra-se no meio acabaria recebendo choques aleatórios, de potência aleatória e de direção aleatória dessas moléculas de água, ou seja, tudo se baseava em um efeito mecânico. As moléculas de água tinham movimentação vibracional, devido a quantidade de energia que as mesmas estavam expostas. Essa quantidade de energia podia ser lida na escala de temperatura, sendo que quanto mais aquecido, mais vibração as moléculas tinham, logo uma maior quantidade de movimentação aleatória. Ele mostrou também que poderia ser prevista a quantidade de espaço que uma molécula consegue se deslocar em um dado momento, através da média quadrática das distâncias (pois assim sempre haveriam valores positivos, já que se a partícula se desloca em uma direção tem um sinal e se deslocar na direção oposta teria o sinal oposto, elevando-se as distâncias ao quadrado, somem os valores negativos, plotando assim em um gráfico cartesiano uma reta). Para que a previsão se dê  há a necessidade de efetuar correções nos valores de viscosidade do meio, temperatura e tamanho das partículas. A equação que Einstein propôs:

Onde D corresponde a difusão, R é a constante dos Gases, T a temperatura em Kelvins, N o número de Avogadro, µ é a viscosidade do meio e r é o raio da partícula. Na realidade Einstein procurava uma forma para se determinar o Número de Avogadro, utilizando movimentação de partículas, porém os resultados que ele observou, ajudavam a explicar o fenômeno do Movimento Browniano.


A equação das médias quadráticas com as váriaveis em função de tempo, desenvolvida por Albert Eisntein explica por fim a movimentação aleatória das partículas.

A grande importância do Efeito Browniano está vinculada ao atomismo, sendo que essa teoria consolidou de vez o a teoria atômica, que ainda possuia certas divergências. Sendo que as predições de Albert Einstein foram confirmadas pelo físico francês Jean Baptiste Perrin em 1908, mediante ao desenvolvimento da ultramicroscopia, conseguiu pesquisar o movimento de uma grande quantidade de partículas em suspensão num fluido, onde a forma esférica das partículas podiam ser muito bem controladas. Com isso ele conseguiu observar o comportamento ideal da pressão osmótica e da lei de força de Stokes, que eram presentes na teoria de Eisntein. Esse experimento também trouxe um valor bastante mais aproximado do real do Número de Avogadro. Com tais concordâncias frente ao trabalho de vanguarda de Albert Einstein, a teoria atômica foi consolidada de vez.

Gráficos de como se dá o movimento aleatório de uma partícula suspensa em um fluido, distância quadrática x tempo.


Mais sobre esse assunto pode ser encontrado nos links a seguir:


Movimento Browniano


quinta-feira, 28 de março de 2013

Leitura e Produção de Textos

Leitura e Produção de Textos é uma matéria um tanto quanto deslocada dentro de cursos de química, pois além de ocupar poucos créditos (muitas vezes somente 2 créditos, o que equivale a 100 minutos semanais), a mesma é oferecida por profissionais do curso de letras. 

Geralmente pessoas que são formadas em letras, possuem atribuições ligadas a tradução e a literatura, que são de  importância cultural como um todo, principalmente por muitos livros bons de química estarem escritos em inglês, ou seja, é quase um pré-requisito um aluno de ciências aplicadas conseguir ler e escrever em língua inglesa. Em relação a matéria de leitura e produção de textos oferecida, acaba  não correspondendo  grande relevância no curso de química, pois os profissionais que são responsáveis pela mesma, possuem uma visão orientada ao curso de letras.

Portanto essa tem que ser uma matéria de critério muito técnico, que na realidade, tenha como objetivo ensinar a boa escrita frente aos relatos científicos que os alunos terão que desenvolver (Já que é oferecida no começo do curso, mediante ao discurso de que em um curso de licenciatura é bom conscientizar os alunos que a boa escrita é fundamental, tanto na área de ensino como na de pesquisa aplicada). Outras coisas técnicas importantes que devem ser focadas é o desenvolvimento de seminários, painéis, resenhas, relatórios, projetos, artigos, portfólios, ou seja, atividades que levam a uma automatização do aluno frente ao desenvolver da expressão científica frente à química. Por isso o correto deveria ser um profissional em química ministrar esse curso.

A seguir disponibilizo alguns links com esquemas que podem servir de orientação, para alunos que estão tendo os primeiros contatos com o linguajar técnico do reportar em um curso de nível superior:

* Esquema de relatório comentado: Relatório
* Esquema para se montar um painel ou poster no seguinte link: Painel
* Exemplo de como montar um artigo: Artigo

Os projetos e portfólios (na área de ensino) são objetivados em matérias mais específicas, como Pesquisa Educacional em Química, Metodologia, Orientação para Prática Profissional, que serão descritas mais para frente, portanto, os esquemas de projetos e portfólios serão disponibilizados juntos, pois fazem parte do ensino dessas matérias.

terça-feira, 26 de fevereiro de 2013

Cálculo da área abaixo de uma curva: Pré-Integrais

Antes do desenvolvimento do cálculo como conhecemos atualmente, os cientístas se usavam de meios criativos para conseguir encontrar respostas para os fenômenos que observavam. Um fato muito importante para o desenvolver das ciências naturais e exatas, foi o início do pensar lógico baseado em gráficos. Vários fenônemos importantes conseguem ser explicados com a análise dessa ferramenta. Para se obter o valor de acumulo de quantidades, pode-se usar o cálculo da área abaixo de uma curva.

Um meio de calcular a área abaixo de uma curva de uma forma bastante rústica e primitiva é o ato de dividir o gráficos em inúmeros retângulos e calcular a área de cada um desses retângulos, calcular um número de corte, baseado na área que fica fora do gráfico, como erro do modelo usado (os erro geralmente se baseia em pequenos retângulos, triângulos ou trapézios).

Nem sempre é trivial calcular a área abaixo de uma curva, a curva acima, parece ser simples, mas o cálculo de sua área é bem complexo.


Uma forma de calcular a área abaixo de um gráfico pode ser vista na imagem acima. Duas formas podem ser usadas, em amarelo retângulos que ultrapassarram a altura da curva, havendo a necessidade de remover esse excesso no fim, com um cálculo de erros (achando a área aproximada de triângulos excedentes). Em verde calcula-se a área aproximada, mas com erro, pois faltam pequenos espaços não preenchidos, portanto, existe a necessidade de calcular a área desses espaços não preenchidos e adicionar no valor final (calculo símples da área de triângulos, baseados em altura e comprimento dos catetos). Um fato importante nos dois métodos é manter constante a largura de cada retângulo e saber a quantos foram usados para cobrir toda a área do gráfico.


Porém esse método engenhoso era bastante despendioso, já que demorava bastante tempo para conseguir chegar em um valor aproximado.

Alguns cientístas usavam uma forma, muito engenhosa e simples, baseada em análise de peso e área de um gráfico físicamente plotado em uma folha de papel, que com certeza, em um momento em que se precisava de respostas rápidas e não havia sido desenvolvido o pensar moderno frente ao cálculo e muito menos a existência de calculadoras e computadores, que vieram anos depois.

Esse método engenhoso se baseava em desenhar o gráfico em uma folha de papel, medir as dimensões da folha, em seguida pesar a folha com o gráfico, e depois recortar o gráfico. Novamente pesava-se a folha (no caso somente a área abaixo do gráfico), e então através de uma regra de três simples conseguia-se chegar na área do grafico abaixo da curva. 

Se pensarmos no enunciado da Navalha de Occan, que diz:
"Se em tudo o mais forem idênticas as várias explicações de um fenómeno, a mais simples é a melhor"

Acaba nos vindo a cabeça que naquela época o mais simples era fazer a medição e pesagem do gráfico, e realmente era (para se obter mais rápidamente os resultados), porém o pensar matemático se desenvolveu em cima desses problemas mais complexos, e hoje temos uma fomar mais simples ainda para cálcular que se baseia na Soma de Riemann ou integrais.

quinta-feira, 21 de fevereiro de 2013

Método de Newton - Determinação de raízes


Método de Newton
É uma forma de se encontrar raízes de uma função. Para usar esse cálculo e estimar uma raiz da função, devemos escolher um ponto qualquer e através desse ponto conseguir estimar essa raiz.

Para isso calculamos a derivada do ponto, ou seja, a tangente da função naquele ponto. Então pode-se prolongar a reta tangente ao ponto escolhido na curva da função e dessa forma cruzar o eixo das abcissas.

Repetindo esse processo diversas vezes para diversos pontos, além e após ao ponto escolhido, vemos que a reta tangente começa a andar no eixo das abcissas e dessa forma começar a observar como tende as posições onde o y será igual a zero.

Matematicamente falando seria:

Onde Xn é o chute inicial.



Depois continua-se substituindo o valor do chute inicial pelo valor obtido como resposta da raiz anterior, ou seja:



E assim sucessivamente.



Vamos pensar em um exemplo:
Digamos que temos uma função de terceiro grau para o cálculo de volume molar de um gás, proveniente de PV=nRT:

Podemos simplifica-la da seguinte forma:




Calculando a derivada, ou seja, a tangente (declive da curva):





Ou seja, podemos criar símbolos para substituir as partes que vão indicar valores que podem ser constantes na equação, dessa forma tornando-a mais simples de visualizar e modelar.

Um meio simples para o uso dessa observação feita por Newton é a utilização de softwares que possuem planilhas, como o padrão do office Microsoft, o Excel.

Antes de mostrar como funciona os cálculos, devemos compreender algumas ferramentas desse software. Nas equações que serão montadas existe a necessidade de colocar muitos parenteses, abrindo e sempre fechando, pois se colocarmos uma equação grande em linha, com várias operações, o software ira executa-las sequencialmente, porém se haver uma parte da equação separada em parenteses, o cálculo se dá sequencial, mas quando chega na parte em parênteses ele executa separado, já que algumas vezes a mudança dos fatores altera o produto. Algumas coisas como o $ será vista com certa constância, pois indica um dado valor fixo, ou seja, em vez de digitar o valor novamente pode-se indicar a coluna e a linha, separados pelo $ (exemplo: A$2, C$23...).

Vamos começar declarando os valores de A1, A2 e A3 da fórmula, utilizamos essas designações, pois são os mesmos valores que indicam uma célula na planilha.


Na célula A2 declaramos da seguinte forma:
=((8,31451*298)/(200*100000)+(0,03183/1000))
Onde R = 8,31451 (Constante dos gases), t = 298 (Temperatura em Kelvin), P = 200*100000 (Pressão em bar) e b= 0,03183/1000 (Volume excluído devido a repulsão de moléculas)


Na célula A3 declaramos da seguinte forma:
=((1,378*1,01325)/(200*(1000^2)))
Onde a = 1,378*1,01325 (Atração entre as moléculas), P = 200*(1000^2) (Pressão em bar)


Na célula A4 declaramos da seguinte forma:
=((1,378*0,03183*1,01325)/(200*(1000*1000*1000)))
Onde a = 1,378*1,01325 (Atração entre as moléculas), b= 0,03183/1000 (Volume excluído devido a repulsão de moléculas), P = 200*(1000^3) (Pressão em bar)


A fórmula ficará da seguinte forma para o cálculo, onde podemos achar as raízes, ou seja, onde y = 0:
C2 – ((C2*C2*C2 – A$2 *C2*C2 + A$3 *C2 – A$4)/(3 *C2 – 2*A$2*C2+A$3 ))


Depois disso é só arrastar até pela coluna até onde desejar, ou até onde o valor torna-se constante.
A imagem abaixo demonstra como existe um valor constante, ou seja, conforme se aproxima infinitesimalmente do mesmo o valor torna-se constante.