|
|
||||
Eduardo Gonçalves dos Santos INTRODUÇÃO Em artigos recentes na RPM, diversos autores fizeram interessantes abordagens ao tema polinômios e equações algébricas, enfatizando a localização de raízes [4], cotas para raízes [1] e existência de raízes para certos tipos de equações [8]. Particularmente no que se refere ao artigo [8], vimos uma menção a respeito da chamada Regra dos Sinais de Descartes, instrumento que estabelece cotas para o número de raízes positivas e negativas de uma equação com coeficientes reais. Como essa regra não se encontra suficientemente difundida nos textos de apoio aos professores de Matemática em língua portuguesa, resolvemos escrever este pequeno texto contando um pouco mais a seu respeito.
A REGRA E UM POUCO DA SUA HISTÓRIA Dois problemas interessantes na teoria das equações são o de separar e isolar as raízes reais de polinômios com coeficientes reais. Isolar uma raiz significa encontrar um intervalo que a contenha e separar uma raiz de uma equação significa encontrar um intervalo que a contenha e não contenha nenhuma outra. Ferramenta importante nessa tarefa é o teorema de Sturm, que dá o número de raízes em um intervalo em termos das variações de sinal de uma sequência de polinômios nos extremos desse intervalo (para mais detalhes, ver [7]). As dificuldades computacionais originadas da sua implementação motivaram o matemático Alexandre Vincent a propor, em 1836, um teste mais simples que fornece o número exato de raízes positivas e negativas, bem como efetuar a separação, no caso de raízes múltiplas. Esse teste combina o teorema de Rolle com a chamada Regra dos Sinais de Descartes. Essa regra fornece informações acerca do número de raízes positivas e negativas de uma equação polinomial com coeficientes reais. Podemos enunciá-la como segue:
As variações de que nos fala a regra são calculadas da maneira mais natural. Por exemplo, no polinômio p(x) = 8x5 – 2x3 – 13x2 + 5x – 4 , temos três variações de sinal nos coeficientes. Nesse caso, a regra nos diz que não existem mais do que 3 raízes positivas para esse polinômio. A mudança de variável x – x nos permite concluir também que o número de raízes negativas de um polinômio com coeficientes reais é menor ou igual ao número de variações no sinal dos coeficientes do polinômio p(–x). Podemos obter mais informações usando uma versão mais forte da regra dos sinais, que será demonstrada na última seção.
Da regra dos sinais, segue que o polinômio acima tem 1 ou 3 raízes reais positivas e, como p(–x)= – 8x5 + 2x3 – 13x2 – 5x – 4 , concluímos que ele possui 0 ou 2 raízes reais negativas. Do ponto de vista histórico, a regra foi enunciada por Descartes em [5]. Nesse trabalho, ele chama as raízes positivas de “verdadeiras”, enquanto as negativas, ele chama de “falsas”. Um detalhe interessante é que a regra foi por ele apresentada sem demonstração. Descartes limitou-se a aplicá-la ao polinômio p(x) = x4 – 4x3– 19x2 + 106x – 120, que tem como raízes 2, 3, 4 e – 5. No momento de falar das raízes negativas, Descartes comete um deslize, que foi observado por Roberval. Segundo Descartes, um polinômio pode ter tantas raízes falsas (negativas) quanto o número de vezes que se encontram, em sequência, dois sinais + ou dois sinais –. Por exemplo, o polinômio p(x) = x6–x4 –x3 –x2 + 1 possui duas variações de sinal nos seus coeficientes. De acordo com a regra acima, esse polinômio tem ou 0, 2 ou 4 raízes negativas. Entretanto, de acordo com a formulação original de Descartes, esse número seria 0 ou 2, o que mostra que a formulação original proposta por Descartes não está correta. Acredita-se que, nesse caso, ele estivesse se referindo a equações que são completas, isto é, equações que não possuem coeficientes nulos. A primeira demonstração que se conhece da regra dos sinais foi dada em 1728 por J.A. Segner. Cogita-se que a regra já era conhecida por Harriot e que Descartes a coletou, com outra formulação, dos trabalhos de Cardano. Entretanto, esses são pontos controversos e não há unanimidade em relação a esse fato, conforme [2]. Posteriormente, em 1807, a regra foi generalizada por F.D. Budán, que encontrou uma cota superior para o número de raízes reais em intervalo qualquer, e em 1829 foi generalizada por Sturm, que encontrou o número exato de raízes reais de um polinômio em um intervalo.
MAIS ALGUNS EXEMPLOS Vejamos agora mais alguns exemplos de usos da regra dos sinais. EXEMPLO 1 Na equação 3x4 – 5x3 – x2 – 8x + 4 = 0 , o número de variações de sinal no polinômio p(x) = 3x4 – 5x3 – x2 – 8x + 4 = 0 é 2. Portanto, o número de raízes positivas é 0 ou 2. Por outro lado, como p(–x) = 3x4 + 5x3 – x2 + 8x + 4 , e nesse polinômio temos 2 variações de sinal, o número de raízes negativas será também 0 ou 2. Dessa forma, temos as seguintes possibilidades:
EXEMPLO 2 A equação x3 – x2 + 2x + 1 = 0 não possui raízes reais positivas. De fato, se nós multiplicarmos o polinômio x3 – x2 + 2x + 1 por (x + 1), obteremos x4 + x2 +3x + 1 e daí, pela regra dos sinais, esse polinômio não tem raízes reais positivas. Isso vale, então, para qualquer fator desse polinômio, em particular para p(x) = x3 – x2 + 2x + 1. Por outro lado, vemos que 0 não é raiz desse polinômio. Ainda, como p(–x) = – x3 – x2 – 2x + 1, novamente pela regra dos sinais vemos que o polinômio tem exatamente uma raiz negativa. Segue, portanto, que o polinômio p(x) se fatora como um produto de um polinômio do primeiro grau com uma raiz negativa por um polinômio do segundo grau, sem raízes reais.
EXEMPLO 3 Se todos os coeficientes não nulos de um polinômio p(x) são positivos e só ocorrem potências ímpares de x, então 0 é a única raiz desse polinômio. De fato, como o termo constante é nulo, é claro que 0 é uma raiz. A inexistência de raízes positivas segue imediatamente da regra dos sinais. O mesmo vale para as raízes negativas, observando que os coeficientes não nulos de p(– x) são todos negativos. Evidentemente, 0 pode ser uma raiz com multiplicidade maior que 1, como, por exemplo, em x5 + x3 = 0.
EXEMPLO 4 A equação x3 + a2x + b2 = 0 tem uma raiz negativa e duas raízes não reais, se b ≠ 0 . Como b ≠ 0 , segue que 0 não é raiz. Ademais, como não há variação nos sinais de p(x) = x3 + a2x + b2, vemos que não há raízes positivas. Como p(– x) = – x³ + a² x² +b², existe exatamente uma raiz negativa pela regra dos sinais. As duas restantes são complexas não reais.
UMA DEMONSTRAÇÂO DA REGRA Daremos uma demonstração devida a D.R. Curtiss que está em [5]. A demonstração é bastante elementar e necessita apenas de um pequeno argumento que utiliza a ideia de limite infinito. Sejam f(x) = a0xn + a1xn – 1 + ... + al xn – l com a0 × al ≠ 0 e r um inteiro positivo. Consideremos o polinômio F dado por F(x) = (x – r)f(x) = A0xn + 1 + A1xn + ... + Al + 1 xn – l; os coeficientes de F são: A0 = a0, A1 = a1 – ra0, A2 = a2 – ra1, ... , Al = al – ral – 1, Al + 1 = – ral Agora, em f(x), sejam o primeiro coeficiente não nulo de sinal diferente de a0, o primeiro coeficiente não nulo depois de e com o mesmo sinal de a0, e o último desses termos, , sendo al ou possuindo o mesmo sinal deste. Veja o diagrama a seguir.
Notemos que o número v mede exatamente a quantidade de variações de sinal nos coeficientes de f(x). Agora observe que os números são todos não nulos e têm o mesmo sinal de a0, , ..., , - . De fato, essa última afirmação vale para A0, já que A0 = a0. Ela também é válida para Al + 1, uma vez que Al + 1 = – ral. Vejamos para os demais. Sabemos que = - . Como o número - r pode ser nulo ou ter o mesmo sinal de , já que r > 0 e e e têm sinais contrários, vemos que a soma que fornece o valor de é não nula e tem o mesmo sinal de . Agora, por hipótese, cada um dos números a0, , ..., , , - al., após o primeiro, é de sinal oposto ao de seu predecessor, enquanto – al tem sinal oposto ao de . Assim, pelo que vimos acima, o mesmo ocorre com a sequência , . Temos então, para essa sequência, v + 1 variações de sinal. Concluímos então que F(x) tem, pelo menos, uma variação a mais que f(x) . Entretanto, podemos afirmar mais. Na realidade, temos que o número de variações de sinal em F(x) é igual ao de f(x), aumentado de algum número inteiro ímpar. De fato, a sequência A0, ... tem um número ímpar de variações de sinal, pois seu primeiro e último termo possuem sinais opostos. O mesmo é válido para as v sequências Assim, o número total de variações de sinal em F(x) é igual à soma de v + 1 números ímpares, ou seja, essa soma é igual a v somado com um número ímpar, e a afirmação está provada. Agora podemos passar à demonstração da regra dos sinais. Primeiro, suponha que a equação f(x) = 0 não possui raízes reais positivas, ou seja, nenhuma raiz no intervalo [0, + ). Então, f(0) e f(x) têm o mesmo sinal. Daí, o primeiro e o último coeficiente de f(x) têm o mesmo sinal. Assim, ou f(x) não tem variações de sinal ou as tem em um número par, de modo que a regra vale nesse caso. Suponha agora que f(x) = 0 tenha raízes positivas r1, r2, ..., rk. Uma raiz de multiplicidade m ocorre nessa lista m vezes, de modo que os ri não são necessariamente distintos. Com isso, podemos escrever f(x) = (x – r1) (x – r2) ... (x – rk)f(x), sendo f(x) um polinômio com coeficientes reais tal que f(x) = 0 não possui raízes reais e positivas. Vimos anteriormente que, nesse caso, ou f(x) não tem variação de sinais ou tem um número par delas. Também vimos que o produto (x – rk)f(x) tem um número de variações igual ao número de variações de f(x) mais um inteiro positivo ímpar. De modo semelhante, isso vai ocorrer cada vez que introduzirmos um fator (x – ri). Assim, o número de variações de sinal de f(x) é igual ao número de variações de f(x) aumentado de k inteiros positivos ímpares, ou seja, a diferença entre o número de raízes positivas e o número de variações nos sinais de f(x) é um número par e a regra está demonstrada.
REFERÊNCIAS [1] Andrade, L.N. Cotas das raízes de um polinômio. RPM 42, p. 40.
|