Chia Cchio Edson Jose

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 169

REGRESSÃO NÃO-LINEAR

DESENVOLVIMENTO DE UM SISTEMA COMPUTACIONAL E APLICAÇÕES

EDSON JOSÊ CHIACCHIO


Licenciado em Matemática

ORIENTADOR Prof. Dr. Cássio Roberto de Melo Godoi

Dissertação apresentada a Escola


Superior de Agricultura "Luiz de
Queiroz", da Universidade de São
Paulo, para obtenção do título de
Mestre em Agr_onomia. Área de
concentração: Estatística e
Experimentação Agronômica .

Piracicaba
Estado de São Paulo - Brasi�
Março/93
Ficha catalográfica preparada pela Se��o de Livros da
Divis�o de Biblioteca e Documentaiào - PCLQ/USP

Chiacchio, Edson José


C532r Regress�o n�o-linear; desenvolvimento de um siste-
ma computacional e aplica�ôes. Piracicaba, 1993.
149p.

Diss.(Mestre) - ESALQ
Bibliografia.

1. Anàlise de regress�o 2. Computador - Sistema


J. Estatistica matemática I. Escola Superior de Agri-
cultura Luiz de Queiroz, Piracicaba

CDD 519.536
REGRESSÃO NÃO-LINEAR :
DESENVOLVIMENTO DE UM SISTEMA COMPUTACIONAL E APLICAÇOES

EDSON JOSÉ CHIACCHIO


Licenciado em Matenliâtica

Aprovada em 03/05/1993

Comissão Julgadora

Prof. Dr. Cássio Roberto de M. Godoi ESALQ/USP

Profª. Drª. Gabriela Stangenhaus IMECC/UNICAMP


Prof. Dr. Rodolfo Hoffmann ESALQ/USP

Orientador
iii

"A Ciência é construída juntando-se lógica e,


ordenadamente, fragmentos do conhecimento,
assim como uma casa é construída juntando-se
lógica e, ordenadamente, tijolos.
Os fragmentos do conhecimento não formam uma
Ciência, assim como um punhado de tijolos não
constituem uma casa.

Henri Poincaré

(1854 - 1912)
iv

À meus pais
José (in memorian)
Coraly
pela oportunidade
À meus irmãos
Coraly (in memorian)
Ary
Renato
Nancy
pela convivência
À minha esposa
Liberaci
pelo amor e compreensão
À meus filhos
Karyna
Davy
pela esperança

DEDICO
V

AGRADECIMENTOS

À Deus pela vida.


Ao Prof. Dr. Cássio Roberto de Melo Godoi, do
departamento de Matemática e Estatística da ESALQ, pelo
apoio, estímulo, orientação, e sobretudo por acreditar em
minhas idéias.
Aos Professores do Departamento de Matemática
e Estatística da ESALQ pela amizade, pelos ensinamentos e
pelas valiosas sugestões.
Aos colegas da pós-graduação, pelos
incentivos, e em especial ao amigo Paulo de Oliveira.
Ao pessoal do CIAGRI pelo apoio computacional,
e em especial aos Srs. Andrés Enrique Lai Reyes e Marcelo
Zacarias da Silva.
Aos funcionários d o Departamento de Matemática
e Estatística da ESALQ pela assistência.
Ao pessoal da Biblioteca Central, pelo auxílio
na recuperação de muitas referências bibliográficas.
À CAPES pelo auxílio financeiro.
'li
iNDICE

Página

Lista de Figuras :zii


Lista de Quadros ..................................... xiii
Simbologia ........................................... xiv
Resumo ............................................... xvi
Surrunary .............................................. xviii
1. Introdução ......................................... 1
2. Revisão de Literatura .............................. 5
2.1. Histórico ..................................... 5
2.1.1. Histórico da Regressão de Minimos Qua-
drados .......... ........... ......... . .. 6
2.1.2. Histórico da Regressão de Desvios Ab-
solutos ........ . .................... ... 9
2.2. Modelos e Métodos Aplicados na Agricultura
e Agropecuária ................................ 11
2.3. Classificação dos Modelos ..................... 13
2. 4. Definição Matemática do Modelo 15
2.5. Suposições a Respeito do Vetor de Erros f 16
2.6. Caracterização da Regressão em Função das Su­
posições do Vetor de Erros f . . ...... . ......... 17
2.6.1. Modelos Ordinários 17
2.6.2. Modelos Ponderados 18
2.6. 3. Modelos Generalizados .................. 18
2.7. Classificação do Tipo da Regressão em Função
da Amplitude dos Erros ....................... 18
2.8. Método dos Mínimos Q.uadrados Ordinários Apli-
cado aos Modelos Não-Lineares ................. 20
2.9. Linearização do Modelo Não-Linear pela Série
de TAYLOR ............. ......... . .. .... . . . ..... 21
2.10. Método dos Mínimos Quadrados para a Solução
do Modelo Linearizado pela Série de TAYLOR ... 23
2.11. Cálculo das Novas Estimativas do Vetor f 24
�.12. Cri�érios de Convergência .................... 25

2.12.2. Critério de MARQUARDT ................ 25


2.12.3. Critério de DENNIS & SCHNABEL ........ 26
2.13. Método de GAUSS-NEWTON para Modelo:::: Nào-
LJineares . ....................... .. .. ......... 26
2.13.1. Método Original de GAUSS-NEWTON ...... 26
2.13.1.1. Algoritmo de GAUSS-NEWTON .. 28
2.13.1.2. Método de GAUSS-NEWTON para
Modelos Não-Lineares Apli-
cado a um Modelo Linear .... 30
2.13.2. Método de HARTLEY .................... 31
.-� � l.• 4 ,. Método de MAROUARDT para Modelos Não-
Lineares .....................................
2.14.1. Método Original de MARQUARDT ......... 32
2.14.2. Método de MARQUARDT - Estratégia de
BARD ......... . ............. ......... . 35
2.14.3. Método de MARQUARDT - Estratégia de
TABATA & ITO .. ..... . . . . ... . . .... . .... 35
2.15. Método de NEWTON para Modelos Não-Lineares ... 36
2.15.1. Obtenção do Termo Não-Linear "$" do
Hessiano 38
2.15.2. A Proposta de DENNIS. GAY & WELSCH ... 41
2.16. Métodos QUASI-NEWTON ......................... 41
2.16.1. Regressão Não-Linear Usando os Mé-
todos QUASI-NEWTON . .... . ............. 42
2.16.2. Algumas Considerações Teóricas e
Práticas ..... . ....... ................ 43
2.16.3. Algoritmo QUASI-NEWTON para Regres-
são Não-Linear ...................... 44
2 .16.4. Expressões QUASI-NEWTON Utilizada::::
Nesse Trabalho . ....... . . . . . . . . ....... 45
2.16.4.1. DAVIDON. FLETCHER & POWELL
( DFP ) . . . . . . . . . . . . . . . . . . . . . . 45
2.16.4.2. BROYDEN. FLETCHER, GOLDFARB
& SHANNO (BFGS) ............ 46
viii

2.17. Métodos Hibridos para Regressão Não-Linear ___ 46


2.17. 1. Introdução .... ..... .. ... .. . . . . . . . . .. . 46
2.17.1.1. Expressões GUASI-NEWTON no
Contex�o de GILL & MURRAY 47
2.17.1.1.1. DAVIDON. FLETCHER
& POWELL (DFP) . . .. . a. .. 47
2.17.1.1.2. BROYDEN, FLETCHER,
GOLDFARB & SHANNO
( BFGS) ..... . . ....... 47
2.17.2. Método de AL-BAALI ................... 47
2.17.2.1. Algoritmo do Método Híbrido
HBY2 ........ . . .... . .... .... 48
2.17.3. Método de XU 48
2.17.3.1. Introdução 48
2.17.3.2. Algoritmo do Método HY2 49
2.17.3.2.1. Expressão de BROYDEN
(1965) ............... 50
2.18. Escolha do Método Dentre os Estudados ....... . 50
2.18.1. Considerações Práticas ............... 51
2.19. Método dos Mínimos Quadrados Generalizados ... 52
2.19.1. Método Generalizado de GAUSS-NEWTON .. 52
2.19.2. Método Generalizado de MARQUARDT 52
2.19.3. Método QUASI-NEWTON Generalizado 52
2.20. Método dos Mínimos Quadrados Ponderados ...... 52
2.21. O Problema da Estimativa Inicial ............. 53
2.21.1. Método do Modelo Aproximado 53
2.21.2. Método de HARTLEY & BROOKER 54
2.21.3. Método de GALLANT 54
2.21.4. Método da "MALHA" 55
2.22. Introdução às Medidas de Não-Linearidade ..... 55
2.23. Análise de Variâncias e Teste de Hipótese
Sobre o Modelo . ...... .. ............ ... . . . .... 56
2.24. Matriz de Variâncias e Covariâncias
Assintóticas 58
2.25. Intervalo de Confiança para os Parâmetros .... 59
ix

2.26. Matriz de Correlação Assintótica dos


Paràmetros ....... . .... . . .. .... .. . ...... ...... 60
'.2.27. Análise dos Resíduos ......................... 60
2.27.1. Análise Gráfica ...................... 62
2. 27. 2. Análise Estatística .... . ............. 64
2.27.2.1. Teste de CHORRILHOS 64
2.27.2.2. Teste de LILLIEFORS 66
2.27.2.3. Outras Estatísticas da
Normalidade ................ 68
2.27.2.4. Teste de ANSCOMBE para
Homocedasticidade 70
-r
1

� .,
r-, '7 r_, h
L,, J .. � ... � .. Teste de COOK & WEISBERG
para Homocedasticidade...... 71
2.23. Matriz de Projeção Ortogonal .................
2.29. Simulação 73
2.29.1. Geração de Nümeros Aleatórios com
Distribuição Normal .................. 74
2.30. Método da Máxima Verossimilhança para Modelos
Não-Lineares ......... . ...... . ........ . .... . .. 75
2.31. Regressão Não-Linear pelo Critério dos Desvios
Absolutos ou Regressão Não-Linear "Ll. " ....... 76
2.31.1. Método de SCHLOSSMACHER .............. 76
2.31.2. Algoritmo de SCHLOSSMACHER ...........
2.31.3. Algumas Considerações ............... . 77
3. Descrição do Sistema Computacional ................. 79
3.1. Escolha do Modelo 79
3.1.1. Modelos da Biblioteca ................. . 80
3.1.1.1. Relação dos Modelos da Biblio-
teca .. . . .... . ................ . 130
3.1.1.2. Um Exemplo do Arquivo de Mode-
los da Biblioteca ............. 84
3.1.2. Modelos do Usuário ..................... 85
n'"7
3.2. Hardware ..................................... . OI

3.2.1. Necessário ..... . .... ......... ... ....... 87


3.2.2. Opcional .... . .. . ....................... 87
3.3. Software Necessário ........................... 87
3.4. Descrição do Software .................... 88
3.4.1. Descrição Gráfica das 0pç6es do
Software para Regressão Não-Linear. 88
3.4.2. Descrição dos Cálculos ............ 90
3.4.2.1. Método de GAUSS-NEWTON ... 90
3.4.2.2. Método de MARQUARDT ...... 92
3.4.2.3. Métodos QUASI-NEWTON ..... 92
3.4.2.4. Método de SCHLOSSMACHER
Original ....... .... . .. .. . 93
3.4.2.5. Método de SCHLOSSMACHER
Modificado ............... 94
3.4.3. Descrição das Estatisticas ........ 94
3.4.3.1. Análise de Variâncias .... 94
3.4.3.2. Intervalo de Confiança
dos Parâmetros ........... 95
3.4.3.3. Matriz de Variâncias/Cova­
riâncias dos Parâmetros .. 95
3.4.3.4. Matriz de Correlação dos
Parâmetros ........... . ... 96
3.4.3.5. Análise dos Resíduos ..... 96
3.4.3.6. Verificação das Pressupo-
sições do Modelo ......... 97
3.4.4. Gráficos 97
3.4.4.1. Gráfico dos Resíduos
Normalizados ............. 97
3.4.4.2. Gráficos da Função ....... 98
4. Discussão e Resultados ............................. 99
4. 1. Introdução . . . ..... . . .. ... . ..... . . . .. . ....... . . 99
4.2. Conjuntos de Dados e Modelos Adotados para
Análise .. . . ...... . . ... . ...... . ............... . 101
4.2.1. Dados e Modelos de SILVA (1978) ........ 101
4.2.2. Dados e Modelo de LANDRIANI et alli
( 1983) ......... ........................ 102
4.3. Análise dos Dados de SILVA (1978) ............. 103
4.3.1. Modelo: 1ª Lei de MITSCHERLICH ......... 103
4.3.2. Modelo: Parábola ....................... 109
4.3.3. Modelo: 2ª Lei de MITSCHERLICH ......... 113
4.4. Análise dos Dados de LANDRIANI et alli (1983) . 122
5. Conclusões e Sugestões para Outras Pesquisas ....... 127
6. Referências Bibliográficas 128
ANEXO 1. Limite Superior para o Teste de LILLIEFORS - . . 139
2
ANEXO 2� Limites da Distribuição de X ( <X 0,05) . - - .. - 140
ANEXO 3. Limites da Distribuição Bilateral t de
Student ( o< = O, 05) . . . . . . . . . . . . . . ... . . . . . . . . . . 141
ANEXO 4. Limites Críticos de ":e·" para o Teste de
CHORRILHOS 142
ANEXO 5. Resultados Obtidos pelo Método de MARGUARDT
e SCHLOSSMACHER modificado para os Dados de
SILVA (1973) Usando a 1ª Lei de MITSCHERLICH . 143
xii
LISTA DE FIGURAS

Figura Página

1. Fluxograma do Método de MARQUARDT ................. 34


2. Critério para Escolha da Constante de
MARQUARDT-TABATA & ITO ........................... . ,,f"
<}O

3. Gráfico dos Residuos ... ____ ....................... 63


4. Relação dos Modelos da Biblioteca ................. 80
5. Gráfico das Regressões L2 para os Dados de
SILVA (1978) Usando a 1ª Lei de MITSCHERLICH ...... 107
6. Gráfico das Regressões
- L para os Dados de
1

SILVA (1978) Usando a 1ª Lei de MITSCHERLICH ...... 108


7. Gráfico das Regressões L2 para os Dados de
SILVA ( 1978) Usando Parábola ...................... 111
8. Gráfico das Regressões L1 para os Dados de
SILVA (1978) Usando Parábola ...................... 112
9. Gráfico das Regressões L2 para os Dados de
SILVA (1978) Usando a 2ª Lei de MITSCHERLICH
com 25 Iterações .................................. 117
10. Gráfico das Regressões L1 para os Dados de
SILVA (1978) Usando a 2ª Lei de MITSCHERLICH
com 100 Iterações ................................. 118
11. Gráfico das Regressões L2 para os Dados de
SILVA (1978) Usando a 2ª Lei de MITSCHERLICH
com 100 Iterações .... . .... . ............. ..... .. . . . 120
12. Gráfico das Regressões L1 para os Dados de
SILVA (1978) Usando a 2ª Lei de MITSCHERLICH
com 100 I ter·ações ... _ ............ .............................. _ .. .. .. . .. .. 121
13. Gráfico das Regressões L2 pa ra os Dados de
LANDRIANI et alli (1983) .......................... 125
14. Gráfico das Regressões Li -para os Dados de
LANDRIANI et alli (1983) .......................... 126
:ziii

LISTA DE QUADROS

Quadro Página

1. Resumo das Análises dos Dados de SILVA (1978)


Usando a 1ª Lei de MITSCHERLICH .................... 106
2. Resumo das Análises dos Dados de SILVA (1978)
Usando Parábola ... . ... . . . .. . . . . .. . . . ..... . . . .. . . .. . 110
3. Resumo das Análises dos Dados de SILVA (1978)
Usando a 2ª Lei de MITSCHERLICH com 25 Iterações ... 116
4. Resumo das Análises dos Dados de SILVA (1978)
Usando a 2ª Lei de MITSCHERLICH com 100 Iterações .. 119
3. Resumo das Análises dos Dados de
LANDRIANI et alli ( 1983) ... . ..... . . . . . .... . . . ...... 124
xiv
SIMBOLOGIA

Apresenta-se nessa seção os símbolos de uso corrente


no texto, e seus respectivos significados :

y representa um vetor coluna


% representa uma matriz
f representa uma relação funcional
n,p, ex representam escalares
L j, k, m : representam contadores
E[· J : Operador esperança matemática.
E[· · J : Operador covariância.
H H : Operador norma euclidiana.
V R (% ; €) : vetor gradiente, definido como:

[
ô R ô R ]
a e:1. a ep

com p sendo o número de elementos em@

matriz hessiana, tendo como elemen-


to ( i, j ) :

a e
i.
a e
J

ó · vetor de correção pela fórmula de TAYLOR


~t .

a estimativa da variável (ou parâmetro) a


vetor de parâmetros, com elementos
[a b c . . . . tJ ,

ll [ l
ln
2
x E,
:1.


2 -- ln e --

ln s n
2
x
n
XV

Convenciona-se que
2
y - a + bX + cX. + e

será denotado por l = a1 + b� + e�


2
+ �. onde 1"=[1 1 ... 1]

e de forma análoga para os demais modelos, exceto no


capítulo 3, onde os modelos estão escritos como uma função
matemática :
2
Y - a + bX + cX + e

u
ZU - [ Z L J J deve ser interpretado como o elemento
Z L J da matriz Z na iteração u
IP..Ll, é algumas vezes usado para representar P Ll,. ou
seja, o elemento da diagonal da matriz IP.
:zvi
REGRESSÃO NÃO-LINEAR
DESENVOLVIMENTO DE UM SISTEMA COMPUTACIONAL E APLICAÇÕES

AUTOR : Edson José Chiacchio


ORIENTADOR Prof. Dr. Cassio Roberto de Melo Godoi

RESUMO

Frequentemente deseja-se expressar informações


provenientes de dados experimentais sob a forma de uma
relação funcional:
'!, - /(% �) + E,;

onde
Y :vetor das observações.
% :matriz do delineamento.
� :vetor dos parâmetros do modelo matemático.
/ :relação funcional que descreve o tipo de dependên­
cia existente entre as variáveis(%) e a resposta
('!,) do experimento.
� :vetor dos erros do modelo suposto aleatório e
normalmente distribuído, do experimento.

Nesse trabalho a relação funcional é suposta


não-linear (podendo eventualmente ser linear), porém
conhecida do pesquisador.
O problema então resume-se em encontrar
estimativas do vetor dos parâmetros� , que minimize o erro
� , através da relação funcional f.
Diversos ,�,�,métodos têm sido propostos para
estimar-se o vetor f , dentre eles
Método de NEWTON
Métodos de GAUSS-NEWTON e suas modificações
Método de MARQUARDT
Métodos QUASI-NEWTON
Métodos Híbridos
Método de SCHLOSSMACHER
xvii

Apresenta-se um estudo teórico de cada método


e suas principais características e limitações.
Os diversos métodos podem ser melhor justifi­
cados quando classificam-se os problemas de acordo com a
ordem de grandeza do erro (zero, pequeno e grande).
Projetou-se um "Software" destinado a pes­
quisadores da área agronômica, mas que pode ser útil a
pesquisadores de outras áreas. Algumas das opções são
listadas a seguir
Seis métodos de estimação dos parâmetros
Biblioteca com o s modelos usuais (mais de 60
modelos)
Análise da regressão
Análise de resíduos
Intervalo de confiança para os parâmetros
Testes para verificação das pressuposições
do modelo.

Incluso no programa encontra-se um Inter­


pretador de. Fórmulas, capaz de avaliar qualquer relação
funcional (modelo) fornecida pelo usuário. Assim o sistema
pode fazer a regressão de um modelo que depende única e
exclusivamente do conhecimento do usuário.
Deve ficar claro que o usuário não necessita
conhecer nenhuma linguagem de programação para operar o
sistema.
Limitações do sistema proposto

Máximo número de observações: 1000


Máximo número de parâmetros do modelo: 20
Máximo nQ de variáveis independentes: 20
Se o módulo de algum valor numérico calculado
308 -308
exceder 10 ou for menor que 10 o sistema
aborta.
xviii

NONLINEAR REGRESSI ON :
SOFTWARE DEVELOPMENT AND APPLICATIONS

Author : Edson José Chiacchio


Adviser : Prof. Dr. Cassio Roberto de Melo Godoi

SUMMA.RY

Often is desired to express information pro­


ceeding from experimental data as of a functional relation :
! - /(� ; �) + �
Where
X :observation vector
� :matrix of the experimental design
@ :vector of the model parameters
/ :functional operator describing the types of depen­
dency existent among the fixed variables (�) and
the response (!)
f :vector of errors from the model, assumed to be
random and normally distributed, of the experi­
mental design
In this work the functional
relation is
supposed to be nonlinear (allowed eventually to be linear),
but know by the researcher.
The problem then is to find estimates of the
parameter vector �, which minimizes the error term � through
the functional relationship vector proposed by the lite­
rature, among them

- NEWTON Method
- GAUSS-NEWTON's Method and their modifications
- MARQUARDT's Method
- QUASI-NEWTON's Methods
- Hybrid Methods
- SCHLOSSMACHER's Method
xix

This work proposes a theoretical study of the


each method including theirs characteristics and limi­
tations.
The several methods are specially well justi­
fied when the problems are classifíed by the size of the er­
rors (zero, small and large).
A software was written specially for agronomic
researchers, but we fell it to be useful also for any kínd
of researcher. Some options available in the system are lis­
ted below :
- Six methods of parameter estimates.
- A library of the most common models (more the 60
models)
Analysis of regression
Confidence interval for the model parameters
Residual analysis
Test of model validity

Included in the c omputer program there is an


Equation interpreter, which analyses a general model (func­
tional relation) provided by the user. So, this software is
able to do a regression whose model is dependent only upon
the user knowledge.
It's not necessary to know computer's language
to operate this system.

Limitations of the system :


- Maximum number of observations : 1000
- Maximum number of parameters : 20
- Maximum number of independent variables : 20
3 08 300
- Numerical precision : 10- � 1 K 1 � 10
j_ •

1. INTRODUÇÃO

Regressão é uma técnica estatístico-


matemática com o objetivo de estimar o vetor de parâmetros,
€ que, aplicado à relação funcional
l = /C� ; €>+ e
reproduz os dados originais com o menor erro, � possível.
Os modelos aqui considerados resumem-se em
três tipos básicos :

Modelos lineares em relação aos parâmetros


- Modelos linearizáveis, que podem ser trans­
formados em lineares através de alguma
transformação (anamorfose)
Modelos não-lineares, aqueles que não são
lineares em relação aos parâmetros.

Nesse trabalho serão considerados apenas os


modelos não-lineares, por tratarem-se de uma classe muito
usada na modelagem de fenómenos da natureza, sejam eles
físicos, químicos, biológicos, agronômicos, etc.
Os modelos lineares e os linearizáveis serão
tratados como casos particulares dos não-lineares.
Admite-se também. que a relação funcional seja
conhecida pelo experimentador. Esse conhecimento pode
- Estar ligado ao desenvolvimento teórico
- Ser baseado em modelo apropriado para situa­
ções semelhantes àquela em estudo
- Ser de caráter exploratório

Assim. o problema resume-se em encontrar uma


estimativa para o vetor de parâmetros Q.
Dois métodos, dentre outros, tem sidos usados
para a obtenção dessa estimativa:
- Método dos Mínimos Quadrados ;
- Método da Máxima Verossimilhança.
Técnicas especiais devem ser utilizadas quando
se faz uso do Método dos Mínimos Quadrados (minimização da
soma dos quadrados dos erros) em regressão não-linear.
As mais comuns são conhecidas como :
- Método de NEWTON
- Método de GAUSS-NEWTON e suas modificações
- Método do GRADIENTE (Steepest Descent)
- Método de MARQUARDT
- Métodos QUASI-NEWTON
- Métodos HíBRIDOS
que serão objetos de estudo deste trabalho.
Tais métodos são conhecidos como "Regressão de
Mínimos Quadrados" ou "Regressão de norma L2 " ou simples-
mente "Regressão �".
Sob a suposição de normalidade dos erros,
ver-se-á que as estimativas de Máxima Verossimilhança são
idênticas às de Mínimos Quadrados, pois maximizar a função
de verossimilhança corresponde a minimizar a soma dos
quadrados dos resíduos.
Um método de estimação mais robusto relativa­
mente a esses dois métodos é conhecido como Método �
Desvios Absolutos ou Regressão de Desvios Absolutos ou
Regressão de Norma L
i ou simplesmente Regressão Li, que
consiste em minimizar a soma dos módulos dos erros.
Na parte prática apresenta-se um programa de
computador, arquitetado e desenvolvido pelo autor, implemen­
tando os métodos
- i}AUSS-NEWTON
- MARQUARDT
- DAVIDON-FLETCHER & POWELL lDFD)
- BROYDEN-FLETCHER-GOLDFARB-SHANNOCBFGS)
- SCHLOSSMACHER
- SCHLOSSMACHER modificado.

Os modelos mais comuns estão disponíveis em


uma "Biblioteca" de fácil acesso ao usuário: para modelos
específicos foi desenvolvido um Interpretador de Fórmulas
que permite ao usuário escrever sua propria relação
funcional (modelo) a partir do teclado. Não necessita :

A inclusão do modelo no programa fonte


- Um arquivo separado contendo o modelo
- "Linkagem" do modelo como subrotina

Após o ajuste da Regressão L2 , pode-se obter


algumas estatísticas, tais como :

- Intervalo de confiança para paràmetros


- Teste da hipótese de validade do modelo
Matriz de variâncias e covariàncias das
estimativas dos parâmetros
- Análise dos resíduos
- Teste de aleatoriedade
- Teste de normalidade
- Teste de homocedasticidade

Se o usuário optar pela Regressão L 1 , então o


relatório do programa só permite comparar os ajustes de modo
descritivo (estimativas pontuais e gráficos), pois não se
encontrou testes de ajuste para a Regressão L 1 não-linear.
Ressalta-se que o usuário não necessita
conhecer qualquer linguagem de programação, pois o programa
é baseado em menus auto-explicativos.
4.

Limitações do sistema

Nº máximo de observações 1000


Nº máximo de parâmetros 20
Nº máximo de var. indep. 20
Precisão númérica
5.

2. REVISÃO DE LITERATURA

As Técnicas de Regressão surgiram da


neces­
sidade de se representar dados provenientes de tabelas. sob
a forma de uma expressão matemática. Exemplos de duas utili­
dades importantes:

Modelagem de um fenômeno (físico, químico, bioló­


gico, agronômico, etc.). para efeito de estudo,
comparação ou previsão.
Armazenamento e recuperação de dados, sob a forma
de uma ou mais expressões matemáticas, como por
exemplo a tabela de F (JOHNSON (1973)).

O termo regressão é devido ao "experimento" de


GALTON cuja conclusão era que a cada geração que passasse a
altura do ser humano tenderia à média (MIRSHAWKA (1983)).

2. i • HISTÓRICO

DE MOIVRES (1738) em seu trabalho Doc-crine of


Chances foi o primeiro a formular um modelo em termos de
erros aleatórios. Sua contribuição é conhecida como
o.
,, '11
"Princípio da Média Aritmética
EULER & MAYER i 1748) em
inde- trabalhos
pendentes desenvolveram o Método das Médias. que consiste em
subdividir as observações em grupos e trabalhar com as
'1 >
médias dos grupos.
DAVIS (1942) apresenta um resumo dessa teoria
e alguns exemplos.

2.1.1. Histórico da Regressão de Mínimos Quadrados

GAUSS (1809) sugeriu a minimização da soma dos


quadrados dos erros como critério para a Regressão de
Mínimos Quadrados
' - Regressão L 2 .
SEAL (1967) cita que LEGENDRE (1805) já havia
sugerido o Método dos Mínimos Quadrados.
A literatura consultada não faz referência a
Métodos de Regressão Não-Linear no período 1900-1930.
CURRY (1944) utiliza o Método do GRADIENTE
(Steepest Descent) para resolver problemas não-lineares. Uma
breve descrição do método proposto pode ser encontrada em
FIGUEIRõA (1986).
LEVENBERG (1944) sugere que se minimize a soma
de quadrado de resíduos localmente, o que levaria o método
do GRADIENTE a convergir. Esse método foi melhor explorado
por· MARQUARDT (1963) , embora FLETCHER ( 1971) tenha afirmado
que as idéias de Levenbe1'g nunca t\..iram bem e:ompreenclidas de
tal forma que ainda hoJe nâo se consegue escrever um
programa de computador capaz de utilizar seu método.
HARTLEY (1948) apresenta o Método dos Mínimos
Quadrados Internos que consiste em ter uma equação de
regressão em que a variável dependente Y está relacionada

<.:1>
citado em "A Course of Regression" Class notes o:f Iowa
University. Biblioteca do IMECC/UNICAMP.
1 •

com sua própria soma repetida, sendo X uma função de % .


O método é ilustrado através de exemplos práticos.
BOOTH, BOX, MULLER & PETERSON (1959), citados
por MARQUARDT (1963). desenvolveram primeiro programa
o
(comercial) de computador que resolvia problemas de
Regressão Não-Linear.
DAVIDON (1959), citado por FLETCHER & POWELL
(1963), descreve um procedimento para minimizar uma função
genérica. Atualmente o Método de DAVIDON. simplificado por
FLETCHER & POWELL, conhecido por DFP, é dado como o primeiro
"Método QUASI-NEWTON".
HARTLEY (1961) apresenta uma modificação no
Método de GAUSS-NEWTON. A modificação consiste em encontrar
um escalar no intervalo [0;1] de tal forma que haja uma
redução na soma dos quadrados do resíduo entre duas
iterações consecutivas. Em sua proposta original busca-se o
mínimo de uma parábola que passa pela soma dos quadrados dos
resíduos, estimada em 3 pontos d a atual iteração. Na teoria
o método é mostrado ser convergente, mas na prática ocorrem
problemas numéricos (aritmética em ponto flutuante).
O próprio HARTLEY (1964) sugere que, ao invés
2
da parábola, seja considerada a
sequência (l./i) , com
i = 0,1,2, ... e toma-se o primeiro valor da sequência para a
qual haja uma redução da soma de quadrado de resíduos.
GALLANT (1987) sugere que a sequência a ser
considerada seja [1; 0,9; 0,8; 0,7; 0,6; 1/2; 1/4; 1/8;
1/16; ... J e que o valor a ser escolhido seja o primeiro
para o qual haja uma redução da soma de quadrados de
resíduos.
MARQUARDT (1963) desenvolve um método que é
uma combinação de outros dois já existentes, a saber o
Método de GAUSS-NEWTON e o Método do GRADIENTE. Cabe aqui
uma explicação:

• O Método de GAUSS-NEWTON (GN) citado por DRAPER &


SMITH (1981) transforma o modelo não-linear
8.

original em um modelo linear, usando o primeiro


termo da Série de TAYLOR ao redor de uma estimativa
inicial e~o
• No Método do GRADIENTE (Steepest Descent) parte-se
~o ,, toma como correção
de um valor inicial e para a
próxima iteração, o valor negativo do gradiente da
soma de quadrados de resíduos.

A demonstração da validade do Método de MAR­


QUARDT é complicada, porém a sua aplicação é simples
(CHIACCHIO (1991))
Diversos autores, dentre os quais FLETCHER
(1971), SMITH & SHANNO (1971), BARD (1974), TABATA & ITO
(1975), têm sugerido modificações no método de MARQUARDT.
FLETCHER (1971) propõe a aplicação de um fator
multiplicativo na constante de MARQUARDT, À, para acelerar o
processo de convergência.
SMITH & SHANNO (1971) sugerem o cálculo de
autovalores para determinar o valor de À.
BARD (1974) considera ÃID ao invés de ÃD, onde
ID V\, depende dos valores da diagonal do "Hessiano" aproximado
(Z' Z).
TABATA & ITO (1975) determinam o valor que in­
crementa ou decrementa A através do "histórico" das ite­
rações.
FLETCHER & POWELL (1963) descrevem um método
de minimização de uma função genérica qualquer. Esse método
é conhecido atualmente como DFP. Para ser utilizado em
regressão o usuário deve minimizar a Função Soma de
Quadrados de Resíduo. O método tem a vantagem de não
necessitar do Sistema de Equaçõe s Normais (SEN).
VITALE & TAYLOR (1968) mostram através de
exemplos como utilizar o Método DFP em Regressão Não-Linear.
BROYDEN, FLETCHER, GOLDFARB, SHANNO (1970)
propuseram, independentemente, o que se conhece atualmente
como o melhor Método QUASI-NEWTON, conhecido como BFGS. Tem
9.

diversas vantagens sobre seus precedentes, e e utilizado da


mesma forma que o DFP.
POWELL (1970), citado por SEBER & WILD (1989),
propõe o primeiro Método HÍBRIDO, isto e, uma combinação
entre os Métodos de GAUSS-NEWTON e do GRADIENTE.
DENNIS (1973) apresenta diversos métodos e
compara suas vantagens e desvantagens. Dentre os métodos
estudados estão os de NEWTON (original), GAUSS-NEWTON,
LEVENBERÇ-MARQUARDT, BROWN-DENNIS, BROYDEN-DENNIS.
DENNIS, GAY & WELSCH (1981) aperfeiçoam o
algoritmo de BROYDEN-DENNIS, reduzindo o Método de NEWTON
(original) a uma combinação entre ns Métodos de GAUSS-NEWTON
e QUASI-HEWTON.
VESPUCCI (1987) faz uma revisão teórica no
trabalho de DENNIS, GAY & WELSCH e apresenta um programa
escrito em FORTRAN que implementa o método estudado.
AL-BAALI (1984) propõe vários Métodos Híbridos
baseados na estrutura GAUSS-NEWTON/BFGS. Desenvolve um cri­
tério para decidir se o algorítmo a ser usado em cada
iteração é GN ou BFGS. Conclui que o melhor Método Híbrido é
o HBY2.
XU (1986) mostra que o algoritmo proposto por
AL-BAALI não preserva algumas das características desejáveis
do Método BFGS. Propõe um novo critério para decidir quando
a iteração será GN e quando será BFGS. Ele enfatiza que a
estrutura GN/BFGS não é alterada, diferindo apenas quanto ao
critério de decisão.

2.1.2. Histórico da Regressão de Desvios Absolutos

BOSCOVICH (1757) sugeriu que a regressão de­


veria satisfazer aos critérios
1- Soma dos resíduos ser igual a zero
:o ..
'2)
- Soma dos módulos dos erros se.ja minimizada.

EDGEWORTH (1887) sugeriu que a primeira con­


dição de BOSCOVICH fosse abandonada e que se usasse apenas a
segunda condição. Esse procedimento e conhecido atualmente
como Regressão Li ou Regressão � Desvios Absolutos. Notou
que na presença de pont,os discrepantes. a Regressão de
Desvios Absolutos (Regressão L)i
é superior a Regressão de
Mínimos Quadrados ( Regressão L2). ,.z>
KARST (1958) propõe um algoritmo para d.eter­
nar os parâmetros de uma reta (com extensão para um hiper­
plano), usando a Regressão L1 . Seu método é justificado geo-
metricamente.
WAGNER (1959) mostra que o problema da Regres-
são (linear) L1 pode ser resolvido usando Programação
Linear.
FISHER (1961) afirma que o trabalho de KARST
(1958) é uma repetição do método proposto por RHODES (1930).
Resolve o problema da Regressão (linear múltipla) Li usando
Programação Linear.
SCHLOSSMACHER (1973) apresenta um método ite-
rativo para o cálculo da Regressão Li' baseado na Regressão
L2 . Embora não haja prova matemática que garanta sua
convergéncia, na prática seus resultados tem sido com-
provados por outros métodos. O algorítmo resolve tanto
problemas de Regressão Linear quanto de Regressão
Não-Linear.
ARMSTRONG & FROME (1976) criticam o trabalho
de SCHLOSSMACHER, comparando seu método com a Programação
Linear. Concluem que o Método da Programação Linear e mais
eficiente.

IZ)
citado em "A Course of Regression" Class notes of Iowa
University. Biblioteca do IMECC/UNICAMP.
11.

BAZARAA & SHETTY (1979) discutem diversos


Métodos de Programação Não-Linear mostrando que o problema
da Regressão Não-Linear pode ser resolvido usando a
Programação Não Linear.
TISHLER & ZANG (1982) sugerem um algoritmo que
apropriado para modelos lineares e não-lineares. Propõe uma
aproximação (suavização) para o modelo, de tal forma que
esse novo modelo possa ser resolvido usando algum Método
QUASI-NEWTON.

2.2. Modelos e Métodos Aplicados na Agricultura e


Agropecuária

Normalmente na Agricultura e na Agropecuária


são usados modelos oriundos de conhecimentos teóricos do
fenômeno estudado. Dessa forma surgiram os modelos de
MITSCHERLICH, VON BERTALANFFY, BRODY, GOMPERTZ, SPILLIMAN,
COBB-DOUGLAS, dentre outros.
Alguns fenômenos cíclicos tem sido estudados
sob a forma de séries temporais, tais como fenômenos meteo­
rológicos e físicos.
Devido à dificuldade de se estimar esses
modelos, pois são não-lineares, alguns modelos lineares
simples (retas, parábolas, raízes, polinômios, exponenciais,
etc.. , e/ou suas combinações) são escolhidos.
Alguns trabalhos destacam-se na literatura, e
são listados a seguir :
CORTARELLI ( 1973) , citado por SILVEIRA ,JR
(1976), ajustou o Modelo BRODY a dados de crescimento de
bovinos, utilizando o Método Original de HARTLEY (1961).
SILVEIRA JR (1976) comparou os modelos de VON
BERTALANFFY, BRODY, GOMPERTZ e logística quando aplicados
aos dados de crescimento de bovinos. Utilizou o Método de
HARTLEY (1961).
1')

MELLO (1976) ajustou a 1ª Lei de Mitscherlich


para 1, 2 e 3 variáveis independentes (3 modelos distintos),
usando o Método de HARTLEY (1961).
SILVA (1978) ajustou as 1ª e 2ª Leis de
Mitscherlich (1 variável independente) a dados de adubação
de trigo, utilizando o Método de HARTLEY (1961). Comparou
esses modelos com o Modelo Quadrático.
SILVA (1980) ajustou a 2ª Lei de Mitscherlich
a dados de maturação de cana-de-açúcar pelos Métodos de
NEWTON, HARTLEY (1961) e MARQUARDT (1963). Conclui que o
Método de MARQUARDT é o mais eficiente.
UDO (1983) ajusta a 2ª Lei de Mitscherlich a
dados de maturação de cana usando o Método de MARQUARDT
modificado por BARD (1974). Compara os resultados obtidos
com os Modelos Quadrático e Raiz Quadrada.
MAGNANI (1985) estuda a 2ª Lei de Mitscherlich
(e a Regressão Quadrática) aplicados à maturação de
cana-de-açúcar, usando os Métodos de NEWTON, GAUSS-NEWTON e
MARQUARDT (pela estratégia de BARD (1974)). Conclui que o
Método de MARQUARDT é o melhor.
FIGUEIRõA (1986), usando o Método Original de
GAUSS-NEWTON, estudou a função de COBB-DOUGLAS com erro
aditivo. É um trabalho de cunho didático. Conclui que
tendo-se boas estimativas iniciais (seção 2.21.) o Método de
GAUSS-NEWTON é satisfatório.
MAGNANI (1991) aplicou o Método de MARQUARDT
(modificado por BARD) à 2ª Lei de Mitscherlich. Sugere uma
reparametização nessa lei baseado em medidas de não­
linearidade do modelo. O autor mostra que as estimativas dos
parâmetros e as propriedades dos estimadores são severamente
afetadas se essas medidas de não-linearidade são consi­
deradas grandes.
FELTRIN (1980) apresentou um estudo sobre
Regressão Harmônica. Seu trabalho considerou que os períodos
são conhecidos e o modelo tornou-se linear. Citou diversos
outros autores que trabalharam com Regressão Harmônica dessa
forma. Nesse trabalho os periodos serão considerados desco­
nhecidos. dessa forma o modelo é dito não-iinear.

2.3. Classííicação dos Modelos

.3e.ja o modelo:
'i, = /(% : €) + � ClJ
( conhecidos i.

DRAPER & SMITH (1981) citam que os modelos


podem ser classificados como
- M.odel os Lineares: :1.que.Les que lineares
em relação aos parâmetros, isto é

a f i, (� '. Q) -
- [2]
ô e g(�)
j

para i = 1, 2, ... , n e j = 1. p.
onde n é o número total de observações e p é
o números de parámetros do modelo.
- Modelos Linearizáveis: aqueles que podem
ser transformados em lineares através de
transformação, conhecida por anamorfose.
Modelos Não-Lineares: aqueles que não são
lineares em relação aos parâmetros. Nesse
caso tem-se,

iJ f (% Q)

- g()x -�)
a e [3]

para i - 1. ,::.,
.-,
. . . n e J -- 1, ,-,L. , . P,
onde n é o número total de observaçôes e p é
o número de pará.metros do modelo.
14.

Considere o modelo 't, -- f (% , @) + E dado por


y -
- z
.... x
a1 + b�+ '�~ _._ E

Assim f (% �)
-
- a1 + b�+ c�

e -- [ a b c J,

Então:

õ f - à .,· - õ f �2
a 1 J
b
- �
ô c
-

donde conclui-se que,

à f
a e - g(�)
J

e o modelo é dito linear.


Seja o modelo X= /(� º) + � , caracterizado
por
X
Y = ai+ bc~ + �
X
assim/(� €) = a1 + bc~ e € = [ a b e J' .
Então:

à f
- 1 à f - e~ à f - b � c~X-1
a a ô b ô c

Conclui-se então que

ô f (� ; �)
L

a e. g(� Q)

e o modelo é classificado como não-linear.


Considere o modelo caracterizado por
X
X= a~.�
onde o erro fé dito multiplicativo. Aplicando logaritmo a
ambos lados da igualdade
15.

ln'f. -
- ln (a~.€)
- X
ln'f. - ln a~ + ln ,!;
ln'!. - �.ln a + ln E
fazendo
�= ln.X b = ln a � - ln e

o modelo se torna

que é linear pois

à f
à b - � - g(�)

X
Então o modelo 'f. - a~ .f é dito linearizável.
,...0e o modelo tor
- X + € , onde o erro
Y_ = a~ é
dito aditivo, não existe transformação capaz de tornar o
modelo linear. É fácil verificar que

à f = a~
X-1
= g(� a)
iJ a �

e o modelo considerado é não-linear.

2.4. De�inição Matemática do Modelo

Considere o modelo genérico


'!. - /(� ; Q) + f [1]

que de forma mais específica pode ser descrito como


Y
.-
= f ( X , X ,.... ,X ; 0 , 0 ,.... ,0 ) + e
-1 -2 -v ....... :1 -2
.,.._
..... p
[ 4]
onde
Y
r,~:1
é o vetor observações.
r, V
é a matriz das variáveis independentes, contendo
n linhas de observações e v colunas de variáveis
independentes.
e é o vetor dos paràmetros, desconhecido, que se
p~:1
quer estimar de modo a minimizar o erro �
contém p parâmetros.
16.

E é o vetor de erros (desconhecido) e não obser-


n-1
vável. tendo cada elemento atribuido a uma obser­
vação; contém n valores.

2.5. Suposições a Respeito do Vetor de Erros e

HOFFMANN & VIEIRA (1987). dentre outros, citam


que a validade dos estimadores de minimos quadrados (do
vetor de parâmetros€), da estatistica F na análise de
variância, da distribuição t para construção de intervalos
de confiança. dentre outros. está vinculada a certas
suposições sobre o vetor de erros f· a saber

I) A média dos erros é nula, isto é,

II) A variância do erro e.1. ,. i = 1,2, ... ,n, é


2
constante e igual a a isto é

E ( cc' ~~
Nesse caso diz-se que os erros são
homocedásticos.

III) o errode uma observação é não cor-


relacionado com o erro de outra obser-
vação. isto é

E (e -
e ) - o i=!l=j
J

IV) Os erros tem distribuição normal.


Combinando I, II e IV. pode-se escrever:

(O .'
2 .
N O'

ou
~ N (p 11 O'
2 .
[5]
J.. i .

"A pressuposição T
.L exclui, por sxemplo, a
existência de erros sistemáticos de medida da variável 'f.
fHOFFMANN et allil.
a pressuposição .L .i. (erros são
Homocedáticos) não e atendida, o usuário poderá usar o
Método dos Minimos Quadrados Ponderados (seção 2.20) ou
tentar algum tipo de transformação de dados, como por
exemplo a sugerida por BOX e COX (1964).
Se a proposição III não e obedecida. diz-se
que há autocorrelação nos resíduos. Nesse caso o usuário
pode utilizar modelos generalizados (seção 2.19) ou mesmo
tentar outros modelos, pois pode estar havendo um erro na
especificação do modelo. Se E [.e l+l. ,e
t
J diz-se ter
autocorrelação positiva. Se E [ E. t+i. et J < a autocor-
relação é negativa.
A pressuposição IV é necessária para que,
dentre outras estatísticas, se possa usar o teste F da
análise de variâncias e/ou construir intervalos de confiança
para os parâmetros.

2.6. Caracterização da Regressão em Função das Suposições


do Vetor de Erros e

2.6.1. Modelos Ordinários

São aqueles cuja a estrutura dos erros não


viola nenhuma das pressuposições. Assim, [5] pode ser
escrito de forma mais eficiente como

[6]
que se lê : "os erros são independentes e identicamente
distribuídos. tendo distribuição normal de média zero e
2
variância constante o- " . U é a matriz identidade.
Dessa forma os modelos ordinários são
resolvidos pelo Método dos Mínimos Quadrados Ordinários.
18.

2.6.2. Modelos Ponderados

São aqueles cuja estrutura o.os erros viola a


pressuposição Nesse caso diz-se
�T
l 1. . que os erros são
heterocedásticos. Assim. escreve-se
2
e ~ N (p ; 1D O' ) [7]
onde 1D é uma matriz diagonal, positiva definida. que pondera
. � . 2
a variancia O'

Modelos Ponderados são resolvidos utilizando o


Método dos Minimos Quadrados Ponderados.

2.6.3. Modelos Generalizados

São aqueles cuja estrutura dos erros viola a


pressuposição III e possivelmente a II também. Assim diz-se
que os erros são correlacionados (e possivelmente heteroce­
dásticos). Nesse caso escreve-se:

[8]

onde � é uma matriz simétrica, positiva definida, que


representa as variâncias e covariãncias dos erros.
Os modelos generalizados são resolvidos usando
o Método dos Mínimos Quadrados Generalizados.

2.7. Classificação do Tipo da Regressão em Função da


Amplitude dos Erros

A classificação é precedida da revisão


(apresentação) de alguns conceitos fundamentais.
O vetor de erros é definido por:

� = X - f (% ; �) [9]
19.

Seja a matriz das derivadas de primeira ordem


do vetor f· conhecida por Jacobiano :

à e.
,iZ - '7
, k - 1 ..... n. 1 .... ,p [ 10 l
à
L.,;.
k)

onde n é o número de observaçoes ,dados) e p e o número de


paràmetros do modelo.
Considere a função

R(% ; Q) = e'e
~ ~ [11]
conhecida como Soma de Quadrado dos Erros.
DENNIS & SCHNABEL (1983), dentre outros, tem
mostr·ado que o vetor das derivadas de primeira ordem de
R(R< ; º), conhecido como "Vetor Gradiente", é dado por :
- V R(R< .·'
-
p21 º)
n
- 2E e. V é,
í.= 1

-- 2 Z' e [12]

De forma análoga, a matriz das derivadas de


segunda ordem de R(% ; €), conhecida como "Matriz Hessiana",
é dada por :

p
IH
p
- v2- R( R< Q)

=
n
., E (Vc. ·Vc' + e. . 'V
ê, 2 )
i = L .... n
i.= 1
\, \,

= ,..,L. (Z'Z + $) [13]

onde

5; = 2Ec l.
.v2-E. l,
[14]

é o termo não-linear da Matriz Hessiana.


Seja Q o estimador de Q. assim a estimativa

de f e dada por :
f - 'i - /(% Q) [15]
20.
de forma análoga os estimadores de Z e Ssão respectivamente
Z e S.
DENNIS & SCHNABEL (1983), AL-BAALI (1984),
SEBER & WILD (1989), dentre outros, tem classificado o tipo
de regressão em função da amplitude dos resíduos, como:

- Modelos de Resíduo Zero


Aqueles para o gual e = O ou também S - O

- Modelos de Resíduos Pequenos


Aqueles em que Sé considerado pequeno em
relação a Z'Z (ou que f pode ser considerado
pequeno).

- Modelos de Resíduos Grandes


Aqueles em que S é considerado grande
em relação a Z'Z (ou que pode ser
considerado grande).

2.8. Método dos Mínimos Quadrados Ordinários Aplicado aos


Modelos Não Lineares

SeJ·a o conJ·unto de variáveis (X-1 ,X-2 , ... ,X-v ,Y)


.-
OU de forma abreviada (R<; Y) e o modelo'!,= f(R< ; �) + f
O objetivo do método é encontrar um vetor �.
para o qual li � u2 seja mínima.
Matematicamente :
2
min T -- min li e 11
€ �
-
- min e e

considerando que/(% €) é diferenciável com respeito a €,
pode-se escrever

ô f (X
z [ z l.J ] = ô 9 .
i = 1, .. ,n,j = 1' .. , p [16]
21.

Do Cálculo sabe-se que uma condição para a


existência do mínimo é :

a T -
-
a e p j = 1, , p
j �
isto é

Z' [ '!, - f ( % ; �)J = rJ? [17]

que, de acordo com SEBER & WILD ( 1989), é conhecido como


Sistema de Equações Normais ou SEN.
Exemplo
Forneça o sistema de equações normais para o

modelo Y - e
-exL i = L... , n

Solução

ô f (X.
X. e -ex.]
�)
n ... i a e:t = [- t.

SEN X.e
i.
-ex.] 1.
n n
[ Y.i. e
-ex.i.] = o
Efetuando o produto e organizando vem
n ,;
ex - n -ex 4
E X. e E X. Y. e
-L.,
1.
1,
i.=:t i.=:t

que é um sistema não-linear, e cuja solução e, pode ser


obtida por tentativas, ou por algum processo iterativo.

2,9. Linearização do Modelo Não-Linear pela Série de


TAYLOR

Uma das técnicas utilizadas para resolver o


problema dos modelos não-lineares é linearizar o modelo,
expandindo/(% ;�) pela série de TAYLOR em torno do ponto
e~o = [e :10 e 20 ... 0 ] ' . Assim tem-se
p0
--,0
.:::...L...

l
[
-
- t (%
d /(% 0) e 10
_T(% 9' +
e (0 +
�) ~) d
Je l.0

.
[
d f (% 9) e 20
]e
+ (0 +
d e e 20 2

(0 +
p
= e
+ !termos de ordem superior a 2) [18]
que pode ser escrito como :

/(% ; 0
- -) ;;. •r L
º
+ B
0 �t..º + Bº � º L, ' ... + [19]
1 1t 2 2�

para 1, = L .... n
p
�- .O � º
B <"7 0
~)
e l. + t..,
k
L,h
k=1
onde
0

/
1,
- f (� ; Q)

Bº = 0
k k
eko

zh
o a f (� ; e1
a 0
- e k - e ko

Seja o modelo y - f (% Q) + e
1,
Usando [19] pode-se
escrever :
p
y -- 1 º + E B
o o
Z + e
1, 1.. k h
k= 1
Assim

y J
-·º --
p
E
0 0
8k Lki.
,..,
+ e [20]
k -=1

é um modelo linear em B e pode ser facilmente resolvido.


De forma matricial o modelo e :
[21]
23.
onde

�º - º[.,

11. 2:1 p:1
º -º -º
- z L
12 22 p2

zº1n 72n
º
zºpn

[ ] [ ]
Bº1 e 1 - e 10
ªº -
º
--
Bp e
p
- 0
pO

[ ]
e
j_

&

2.10. Método dos Mínimos Quadrados para a Solução do


Modelo Linearizado p ela Série de TAYLOR

Seja o modelo linearizado


+ .e

para o qual se deseja encontrarª , uma estimativa de


usando o Método dos Mínimos Quadrados.
Então :
2
min L - min H � U
- min �•�

0
denotando!= X - [ vem

- min [!! - 2°ªº J' [W 2°ªº J


ª -ª � ª__º ' �.....o' �.....0 1?.__º ]
-

.....o' _
[
_,,p o o'
- min �'! - �•� !
24.
como e são

escalares. vem :

Uma condição para que L tenha mínimo é

então

de onde se conclui :

ou
º
~ -
(y 1~ ) [22]

que é conhecido como Sistema de Equações Normais (SEN) do


modelo linearizado. Se cz''z') é não singular, então, caso
º
exista um mínimo relativo, uma estimativa deª , é dada por:

[23]

Apenas a condição ô L = t não garante que

L seja um ponto de mínimo. Outra condição necessária para


2
ô L seja
garantir o ponto de mínimo é que a matriz

positiva definida.

2.11. Cálculo das Novas Estimativas do Vetor�•

Se e~o é uma estimativa inicial do vetor �


-- ,
então uma estimativa melhor que e~o é dada por

[24]

e o processo é repetido colocando e~1 no lugar de ~o até


que algum critério de convergência seja aceito, isto é

onde u é o número de vezes que o processo foi repetido.


2.12. Critérios de Convergência

Pode-se optar por um dos critérios dados a


seguir

2.12.1. Critério do Erro Relativo

DRAPER & SMITH (1981) sugerem


ektu+1, e.ku
< e k L .... P [25]
eku

onde e é o limite superior do erro relativo entre 0 e


k<u+1>
0 sendo (u + 1) a iteração atual e (u) a
, iteração
ku
anterior. Note o leitor que o critério deverá ser satisfeito
para cada um dos parâmetros (0 k ) do modelo� nesse caso
e k ;;.. e k<u+:t>

Se algum e k = O então o critério passa a ser


0 1 < e [26]
k1u+:1> ku

normalmente, para ambos casos. tem-se

2.12,2. Critério de MARQUARDT

MARQUARDT (1963) sugere


0 0
k t u+1 > ku
< e k - L ... , p [27]
e ku +
-3
onde a constante 10 é utilizada para se evitar problemas
quando 0 ku = O . As demais consideraçoes são as mesmas de
DRAPER e SMITH.
26.
2.12.3, Critério de DENHIS & SCHNABEL

DENNIS & SCHNABEL (1983) sugerem que além de


um dos critérios (DRAPER & SMITH ou MARQUARDT) também se
teste o "critério do ponto de mínimo estacionário", definido
como :
Se a soma de quadrados do residuo não
dec1'esce em 5 ite1'açc.."ies consecutivas pare, (e aceite como
solução o vetor 0 u ) pois encontrou-se um ponto de mínimo
estacionário.

2.13. Métodos de GAUSS-NEWTON para Modelos Não-Lineares

Descreve-se o modelo original (seção 2.13.1) e


a seguir as modificações introduzidas por HARTLEY (1961,
1964) (seção 2.13.2) e por GALLANT (1985).

2.13.1, Método Original de GAUSS-NEWTON

Considere o modelo não-linear

yt, = f (� L �) + e. \.

Usando a linearização pela série de TAYLOR (seção 2. 9. ) ,


vem
ª .

[
p �)
€) - /(X
/ ( ?.Ç i.
f ( ?.Ç i. �) +E • (9k ku
~ 1,
k=1. a ek L =9 - 9 )]
k ku

onde os índices são definidos por :

u - o 1 , (até a convergência)
i - 1 ... , n
k - 1 , ,. . .. p
27.

Convenciona-se que

-
f(X~ ,,
u
f - 0 )
~1. ~u

B
u
-
- e -0
ku

7u
'-' ki.
-
[
â f (�

a ek
�)

L -
- e ku

Assim o modelo se torna linear


p
.J.,u -
1,
J
1,
E
k =1

onde
u u
z
1 :1 2:1

u u
z z
zu [ z�J -- 12 22
[28]
u u u
z z z
:1.n 2n pn
p

u
B

B - B
u
[29]
~u 2

u
B
p
:1

u
y1 / .1

:r u
= [Y
i.
- /
u

1, ]
-- y2
.u
/2
[30]

yn f�

valor da variável dependente


valor da função para valores de e u

Dessa forma o Sistema de Equações Normais,


SEN, (seção 2. 10. ) é dado por ..
Z' z B = Z' [a]
u u u Y'u ~u
cuja solução é
B -- (Z' z )
-:1
Z' [31]
~u u u u Y'u
s.cimitincio que 1Z' Z� l seja
- positiva
- definida.
u
�essa forma a próxima estimativa do vetor 2 e
dada por

e �o e uma estimativa inicial fornecida pelo usuário (seção

Um critério de par·aaa ou convergéncia (_ seç,§o


2.12.) e dado por

e k\U+l) e ku
<. e k - L :::: ..... p [25]
e ku
entào pare 1convergiu1, senào repita-se novamente.
0 - O não deve-se usar
ku
C25 J, mas [26].
De [30] verifica-se que a Soma de Quadrados de
Resíduo é
2
SQRes = li �u
v 11

bem sabido gue o Método de GAUSS-NEWTON só e


É

bom quando o problema a ser resolvido é de resíduo zero ou


resíduo pequeno (DENNIS & SCHNABEL (1983). AL-BAALI ( 1984)
SEBER & WILD (1989)).

2.13.1.1. AlgorítnlO de GAUSS-NEWTON

1 ~o das estimativas
Usuário fornece o vetor O
iniciais.
2 u = O
3 Calcule [28] e [30].
4 Calcule [31].
5 Use [25] ou [26] para decidir
- ;:::e convergiu, pare.
- senão. vá ao passo 6
6 u = u + 1 e volte ao passo 3.
29.

A única dificuldade que o leitor pode


encontrar é na interpretação (montagem) das expressões [28]
e [30] , já que as demais são calculadas numericamente.

Exemplo:
Considere o modelo '!, - /(% Q) + f, carac-
terizado por
kx
y - L1+ B . e ~ + e

então
à f -
- 1
à f -- e kX~ à f -
- B � e
k�
à L à B à K

Note que
à f
à L
- zu1L
ô f
ô B
zu21.
u
à f
ô K
z31.

Dessa forma [28] é dado por


kx kx
1 e 1 B X e
1
kx
e 2 B X2 ekx 2
z = [ zuki. ] =
kx
1 e n

k X k X
u 1 u 1
onde a rigor deveria ser escrito BXe
u 1
, etc...

A expressão [30] é

,.u
y j_ J :1

ru
-
- [ yL /
u
L ] = y2 f�

u
y /.
n

kx_
onde, Y.1. - f1. = Y-
L
( L+Be L). Maiores detalhes e exemplos
numéricos podem ser encontrados em CHIACCHIO (1991).
30.
2.13.1.2. Método de GAUSS-NEWTON para
Modelos Não-Lineares Aplicado a
um Modelo Linear

KENNEDY & GENTLE ( 1980), RATKOWSKY ( 1983)


dentre outros, tem mostrado que o Método de GAUSS-NEWTON
para modelos não-lineares quando aplicado a um modelo linear
converge em uma única iteração. independente do valor
inicial e~o
Seja o modelo linear :

onde
Y
ri~1. é o vetor das variáveis dependentes.

ri
�p é a matriz das variáveis independentes,
suposta conhecida e fixa.
vetor de parâmetros que se quer
estimar.

ri~1
e é o vetor de erros não observáveis,
cujos elementos são supostos independentes
e normalmente distribuídos.

Substituindo [30] e [31] em [32], vem :


e......u+1. = e-u + e z· z ) -1.
u u
Z'
u
ey - {-' ) [33]

Note que como o modelo é linear


z ô f - �
ã e
e

Então
e-u+l. - e~u + (' %u' %u )-1 %'u (Y~ - %
u
e~u )
-- e + (%'u % ) %' '!, -:1
(%'
u
% )
u
-1
%'
u
%
u
e~u
~u u u

= e~u + (%u' %u ) %'u 'f,


-1.
íl e~u
- e
~u
+ (%'
u
% )
u
-1
�-
u 'f, e~u
- -1
%'
(%'
u
% )
u u 'l
31.

e o processo termina em uma única iteração (u = O), já que


� - (%' 51.< )-1. %' '!, é o estimador de mínimos quadrados de �
para o modelo linear'!,= % Q + �

2.13.2. Método de HARTLEY

O Método Original de GAUSS-NEWTON, embora


simples na teoria, na prática é bastante deficiente. Para
muitos modelos se a estimativa inicial estiver longe da
solução o método não converge, isto é, não se encontra o
ponto de mínimo da função R(% ; �).
HARTLEY (1961) propõe um método iterativo
dado por
Y - /~u)
(~ [34]

onde vu é um escalar que minimiza localmente a função


R(% ; �), conhecida como soma de quadrados de resíduos, no
intervalo [O 1] Embora exista prova teórica da
convergência do método, na prática isso não ocorre devido a
erros numéricos (aritmética finita ou em ponto flutuante).
Na estratégia original vu é tomado como o ponto de minimo da
parábola que passa por R(% ; 0(k)), onde k = O, 1/2, 1.
Denotando respectivamente por R(O), R(l/2) e
R(l) essas estimativas, então
(1/4) [ R(O) - R(l) J
[35]
R(l) - 2 R(l/2) + R(O)

HARTLEY ( 1964) afirma que V


u
não deve ser
calculado usando [35], e sugere uma estratégia mais simples,
baseada na expressão

, t = o, 1, 2, 3, [36]

ressaltando que deve-se tomar para vu primeiro valor para o


qual :
Ru+i. (% Q) < R (%
32.

ou seja, tenha havido uma diminuição na soma de quadrados de


resíduos.
GALLANT (1985) sugere que [36] seja a
sequência

[ 1 O, 9 O, 8 O, 7 O, 6 1/2 1/ 4 1/8 ... ] [37 J


tomando-se para vu o primeiro valor para o qual tenha havido
uma diminuição na soma de quadrados de resíduos.
O Método de HARTLEY só deve ser usado para
problemas de resíduos zero ou resíduo pequeno.
Fato A soma de quadrados de resíduos,
�(% �), pode ser calculada pela expressão
2
SQRes = li Lu 11 [38]

2.14. Método de MARQUARDT para Modelos Não-Lineares

A literatura afirma que o Método de MARQUARDT


é o melhor de sua classe. Como existem diversas modifi­
cações, inicia-se a apresentação pelo original.

2. 14. 1 • Método Original de MARQUARDT

MARQUARDT (1963) propõe um método baseado na


interpolação entre dois métodos conhecidos na época, a
saber
- Método de GAUSS-NEWTON (ou "Método da Série
de TAYLOR").
- Método do GRADIENTE (ou "Steepest Descent").

O Método de GAUSS-NEWTON é conhecido (seção


2.13. ), e o Método do GRADIENTE (FLETCHER (1987)) é dado
por :
8
-u+1.
- 0
-u
[39]
3,..,
v.

A estratégia utilizada consiste na interpo-


lação de ó
~t
e ó
~,-,
dados por

6
~t
- '
(Zu zu ) -1 �,
u
(Y {.; ) [40)

- u
6
~g
Z'
u \'Y ~ - ·~
f ) [41]

Note o leitor que [40] pode ser considerada


como um "fator de correção" em [33] . Da mesma forma [41] é
um fator de correção em [39].
A interpolação entre ó
~t
e (MARQUARDT
~g
(1963)) resulta em :
Ó
-
= ( Z'
u
Z
u
+ À IJ ) -! Z'
. u
( 'f,_ - [ )
u
[42]

onde À é conhecida como constante de MARQUARDT.


Esse autor demonstra que
Ó--► se À --► o
~t
se À --► O)
~g
Então o algoritmo de MARQUARDT é dado por

e-u+:1. = e-u + e z·u zu + À


u
n ) - 1. z·u e y- [43]
e o problema agora reside na escolha de À
u
O seguinte fluxograma retrata a estratégia de
MARQUARDT
34.

e -- 10

10-
- 2
À

I
'.l

,,.::, -- SQRes

I
À - À /C
u ·u

I
ó -
- ( Z'Z +
u u
À
u
D )
- :1
Z' (Y~
u
,e) 1

S' = SQRes ( u.+ :1 >

11\
À
u
- e . :x. u.

ls
s -
- <',
u

1
0 - 0 + ó
-u+1 ~u.

Cri.téri.o de
convergenc i. a.

FIGURA 1. Fluxograma para o Método de MARQUARDT


. .::;:::- ..
_) ,_)

E:<:emplc,s numéricos e um iluxograma. completo do


Método de MAROUARDT f;odem ser encont.raoos em "�HIACCHIO
( 19911.

2.14,2. Método de MARQUARDT - Estratégia de BARD

BARD ( 197 4) propóe que ::::e substitua a matriz


identidade fl por uma matriz ID onde
se i Z''...l Zu ) .kk. :x O
ID
kk
:· 44 J

A constante de MARQUARDT 1�1 segue a mesma


estratégia original.
Dessa forma o algorítmo de MARQUARDT-BARD e
0 = 0 + ( Z' Z + À ID) -:1 Z' ( Y - fu ) [45]
-u+1 -u u u u u · - -

2.14.3. Método de MARQUARDT Estratégia de


TABATA & ITO

TABATA & ITO (1975) sugerem que o valor


e = 10 que incrementa ou decrementa À • seja uma função do
histórico das iterações. e nâo uma constante como propôs
MARQUARDT.
Definiram - ,.... h 1, . . . ' 5
\_,h ,

e = 1.33
e = 1. 78
,-..
\_.� = :3 � lG [46]
,-,
\., = 10
e '5
= 100
cuja escolha é funçào do histórico das iterações
36.

Histórico Ch

partida
DI, ID e h- .1

DDI, IDI, I ID e-h-:1 se h > 1


DDD e-h+:1 se h < 5
III e se h <
outros casos Ch
D Decréscimo na Soma de Quadrados de Resíduos
I Acréscimo na Soma de Quadrados de Resíduos

FIGURA 2. Critérios para a Escolha da Constante de


MARQUARDT, TABATA & I TO

Dessa forma o algoritmo de MARQUARDT-TABATA &


IT0 é
u
e = e + ( z· z + À* n ) -1. Z' (X - t ) [47]
..... u+.1. ..... u u u u u

O Método de MARQUARDT e suas modificações


devem ser usadas apenas em problemas de resíduo zero ou
resíduo pequeno.

2.15. Método de NEWTON para Modelos Não-Lineares

BARD (1974), BRODLIE (1977) DENNIS &


SCHNABEL (1983), dentre outros, consideram o modelo não-
linear l = f(* ; i) + s e citam que o Método de NEWTON é
baseado na expansão pela Série de TAYLOR, até 2ª ordem, da
º)
função f(* ; - em torno do ponto 0~t
. Assim tem-se :
37.

f (% ~ { (%
. t
º) + fz' ;1 + [48]

com
pg1 = 2z· cy - l> onde z ê o jacobiano e l = f(� e,
IH = 2 (Z' Z + $)
p p

= e_ - e~t

onde $ é o termo não-linear da matriz hessiana, dada por :


p p

skm = 2 E [ (Yi, - /).


'- k.]
c.>
mi,
[49]
1, =1

e
ª2
f(X €)
kmi
- [50]
a . a
0k

note que a matriz n<pxp> tem elementos kmi

Assim o modelo linearizado pode ser escrito


como
[z' IH [z + e (51]

Aplicando o Método dos Mínimos Quadrados

min L - min íl � tt
2

ocorre quando
ô L
a 11 - p
isto é

se IH é não singular, então :


+ ( Z' Z + $ ) -.1 Z' ( y - f. )
u
0
-u+1
= 0
-u u u u u
[52]

é a forma iterativa do Método de NEWTON.


38.

2.15.1. Obtenção do Termo Não-Linear do


Hessiano

Considere o modelo não-linear X = /(% º) + �,


dado por
X
X= ai - bc~ + E

onde particularmente

Y
5~1
é o vetor das observações dependentes,
contendo 5 observações.
X
5~1
é o vetor das observa0ões
"' independentes,
contendo 5 observações.

l�] é o

desconhecidos, que se quer estimar.


vetor de parâmetros

e
5 ... i
é o vetor de erros aleatórios desconhecido
e não observável.

Dessa forma tem-se

ô y -- 1 ô y - X ô y -- -b.X.c :<-1
e
a b e

ô2
Y a y a y a y
z z z
-- o -- o -
- o -- o
ô a
2
âaâb âaâc a b z

ô2
Y - -Xcx-1 a y
z
-- -bX(X-l)c :{ -2
ôbôc ô e

Então [50] é
39.

2
ôa ôaôb õaiJc
y
a
z ª2 y
L l

2
ôbôa b ôbôc
ô
21. 22.

a2 Y.
2
õcôa iJcôb àc
3ío 331
3 3

Note que:

ô2 ô2
Y.

ôbiJa ôaôb

ª2 ª2
y

àcôa ôaàc

ª2 y à
2

àcõb ôbõc

Dessa forma a matriz Q


r, pxp
é ·
40.

.----------�----./, / w i
3 /
/w // 1
33
w 1/j
w,3
/ 1 / 1

---�------.'----- / t // \
21 22 ( 'y -

l
-

/(//
w

R
./ /w //i 231,{w33 j
i------1------+---�/
/ w" / w ,3 /
12 i �,/\
j 1 / 1

./2; 1�:
J•1/.· ;1:
i
!
l

w
11,
w 12 l w
1 31
/

i
1 w 1 12 1
w 122 w
/.
/
/
/ w
3, w33
2 2 1

/
1 32 '
i
� i.l

i
i
/ 1
/
/
/
1

w23>, /w
i
1

w 12 3
y -
w 1 13
,)

'/ 1
w 33 3
1
1 133

Q=[Wkm i ]= /,/// 1

w2 35 l ',· - ! 1
w l l 4
w 124 w
134

.///
w 11ó w
12"
w
135 //
5

onde cada sub-matriz w é calculada usando a 1..-ésima


kmt.
observação.
Logo a matriz Sé dada por

s 11 s 12 13

s =
[ 8
km ] = s21

s31
s

s32
22
s23

s33
3 3

com

] o:
5
n J
[ (Y - -
= E -L,) · wkm1-
= f). [
....,km
C'

\, =1
41.

2.15.2. A Proposta de DENNIS, GAY & WELSCH (1981)

Note o leitor que o cálculo de $ , a parte não


linear da matriz Hessiana � , e extremamente trabalhosa, e
indesejável. Além disso o Método de NEWTON freqüentemente
falha, pois a matriz Hessiana � se torna singular. Para
solucionar o problema os autores propuseram que $ seja
estimada usando algum Método QUASI-NEWTON (seção 2.16. ), e
que o processo iterativo seja
e-u+1. = 0
-u
+ (Z'Z
u u
+ $
u
+ À D)-:1 Z'(Y - f_ )
u · u " -
u
[53]

implementando também a estratégia de MARQUARDT ao Método de


NEWTON, o que fornece uma solução mesmo que � = Z' Z
u u
+ $
u
seja singular. Detalhes dessa implementação podem ser
encontrados em DENNIS & SCHANABEL (1983) e AL-BAALI (1984).
O método de Newton e suas modificações devem
ser usados em problemas de resíduos grandes.

2.16. Métodos QUASI-NEWTON

DAVIDON (1959), FLETCHER & POWELL (1963)


apresentam um método para otimizar uma função genérica, com
qualquer número de variáveis, conhecido atualmente como
método DFP.
BROYDEN (1970), FLETCHER (1970), GOLDFARB
(1970) e SHANNO (1970) propuseram independentemente uma nova
aproximação, atualmente considerada o melhor Método QUASI­
NEWTON, e conhecido como BFGS.
Como a teoria proposta é para otimização não­
linear, isto é, minimização ou maximização de uma função
qualquer, o caso da Regressão Não-Linear de Mínimos
Quadrados será resolvido minimizando a função objetivo "Soma
de Quadrados de Resíduos", isto é :
2
min R(% ; �) = min li!; 11
42.

Embora a teoria dos Métodos QUASI-NEWT0N seja elegante, ela


está fora do escopo desse trabalho. O leitor pode encontrar
detalhes em FLETCHER (1987).

2. 16. 1. Regressão Não-Linear Usando os Métodos


QUASI-NEWTON

Seja o modelo não-linear Y = /(% º) + e


onde
ri~1
Y é o vetor das observações dependentes.
%V
r,
é a matríz das varíáveís índependentes.

0 é o vetor dos parâmetros desconhecidos,


p~1.
que se deseja estímar.
f é a relação funcíonal, suposta conhecída
pelo pesquísador.
ri~1
e é o vetor de erros aleatório, não
observável, desconhecido, suposto ser
normal e independentemente distribuído.

O objetivo é obter uma estímativa para o vetor


@ º , de forma que o erro � seja mínímo.
Usando a teoria dos mínimos quadrados

min R(% ; º) = min íl � H


2

é dado, usando o Método de NEWTON, pelo processo íteratívo :


e
-u+1.
= e +
-u
e z·u zu + $
u
) -1. z· u e Y- - J.,..,, u ) [52]

Nos Métodos QUASI-NEWT0N, essa expressão é


dada por
e-u+1. = e-u + IHu Z'u e Y- - J.,,.., u ,
)
[54]
1
onde IHt.J. é uma aproximação para a matriz ('il!.'u 'il!.u +Su )- obtída
a partír de qualquer matriz simétrica e positiva defínida,
IHo , através de algum Método QUASI-NEWT0N.
43.

2.16.2. Algumas Cosiderações Teóricas e Práticas

Trabalhos teóricos <FLETCHER (1963), BROYDEN


(1967), FLETCHER (1987), dentre outros mostram que a
melhor escolha para Ho é a matriz identidade O pois dessa
forma, o processo se inicia com o Método do Gradiente
(Steepest Descent), que é sabidamente bom quando se está
"longe" da solução. Embora teoricamente se mostre que dada
Ho simétrica e positiva definida então Hu também é simétrica
e positiva definida, qualquer u. POLAK (1971) sugere que �u
seja periodicamente "resetada".' isto é.. Hu = a. Seu argumento
é baseado em testes práticos, que concluem que em aritmética
finita,. Hu se torna singular ; propõe que o "reset" deve ser
dado quando u for múltiplo de 3 do número de parâmetros do
modelo.
Deve ficar claro para o leitor que o algorítmo
usado para resolver 5
[ 4] depende
- Da Equação QUASI-NEWTON escolhida (DFP,
BFGS, ou qualquer outra).
- Do Método utilizado para resolver o
sub-problema "busca unidimensional"
(line-search ).

O leitor pode optar por qualquer uma das


equações da família QUASI-NEWTON proposta por BROYDEN
(1967). Destacam-se, dentre a s centenas existentes, as
equações DFP e BFGS utilizadas nesse trabalho.
A parte mais trabalhosa do Método QUASI-NEWTON
é sem dúvida o sub-problema "busca unidimensional", isto é,
calcular um escalar � > O tal que :
R(� ; � . 0 ) < R(% '· 0
.....,..u )
u -u+1

Segundo FLETCHER (1963) a 1ª sugestão foi dada


por DAVIDON (1959); esse procedimento pode ser encontrado de
forma detalhada em KENNEDY & GENTLE (1980). Outras sugestões
são dadas por FLANAGAN, VITALE & MENDELSOHN (1969), FLETCHER
(1980), AL-BAALI (1984), dentre outros.
44.

Nesse trabalho utiliza-se a proposta de


HARTLEY (1964), citada também por KENNEDY & GENTLE (1980),
cuja expressão é simplesmente
- 1
O<
k
-
k
' k -- O, l, �'
? [55]
2

2.16.3. Algoritmo QUASI-NEWTON para Regressão


Não-Linear

O) e~o estimativa inicial dada pelo usuário


1) u = O
2) IH =
p p
3) 2u equação [28]
lu equação [30]
2u
= 2 Z'ulu conforme VITALE & TAYLOR

(1968)
2
F =
li ru 11 equação [38]

4) e~u = IH
u 2u

5) k = o, 1, 2' ... ( Line-search)


O<
-
u k
2
p
~u
= O<
u
e~u [56]
9 = p + 9
-u+1. ~u ~u

lu+1
2
F u+1. =
li lu+1. 11
se F IJ.+ :1 2:: Fu voltar ao passo 5 com k = k+l

u+:1
= 2 Z'u+'.I. lu+1.
�u+1.

[57]
T = P'
-u
o�
45.

,- Fu
F,__, +
se [ e i aceita-se � e vá ao
1

T > O passo 6

caso contrário voltar ao passo 5 com


k = k+l

6) testar convergência; se convergiu e são


os parâmetros procurados.
-u+1

7) Reset de POLAK (1971)

r
se
o
l
u é múltiplo de 3 do número
de parâmetros j
então faça u = u+l e volte ao passo 2
8) Calcule IHU+:1 pela expressão QUASI-NEWTON
desejada.
9) u = u+l e volte ao passo 4

2.16.4. Expressões QUASI-NEWTON utilizadas Nesse


Trabalho

2.16.4.1, DAVIDON� FLETCHER & POWELL CDFP)

IHu n Q.' IH'


IH [58]
n-fFP )6-u u u
-
u+1 u + P' Q.u g·u IHu g.u
--u

onde Pe são definidos por [56] e [57] respectivamente.


.

n
~u J::tu
46.

FLETCHERt GOLDFARB,
SHANNO C BFGS)

[ l
ofFGS Q� IHu Qu p
-u
P'
~u
- IH 1
u P' <.t P'
+ +
u+J.
~u ~u Qu

-
[
Os Métodos QUASI-NEWTON devem
P'
~u Qu
P'
~u Qu' IHu + IHu Q u-u
p

l
ser
[59]

utilizados
em problemas de resíduos grandes.

2.17. Métodos Híbridos para Regressão Não-Linear

2.17.1. Introdução

GILL & MURRAY (1972), citados por FLETCHER


(1987), sugerem que para melhorar estabilidade numérica a
dos Métodos QUASI-NEWTON seja usada a matriz 1Bu = IHu-1. onde :
1Bu = Z'u Zu [60]

Dessa forma o Método QUASI-NEWTON passa a


ser
a) resolva 1Bu-u
C = -a para C
-u
; note que esse
:õl.u

passo deve ser feito usando o algorítmo de


GILL & MURRAY (1972), para se evitar a
inversão da matriz 1B .
b) Calcule o escalar � tal que
R(% , e+�
- e) < RC� e~u·)
u-u
isto é, o ''Line Search". Note que
e
- u+1.
= eA,,ou+� u-u
e
c) Obtenha 1B
u+:t.
a partir de 1B usando a
47.

expressão QUASI-NEWTON corresponde a

aproximação desejada IDFP ou BFGS ).

Repete-se os passos até que a convergência


seja obtida.

2.17.1.1. Expressões QUASI-NEWTON no


Contexto de GILL & MURRAY

2.17 • 1 • 1 • 1 • DAVIDON, FLETCHER & POWELL


CDFP)

1B 1• l
P' 1B p Q.u Q.'u
113°FP
- ~u u ~u
[
+
u+1 u Q.'u p~u Q.'u p~u

1B
[ ]
Q.u P' p
u ~u Q.'u
1B +
~u u
[61]
Q.'u p~u

2.17.1.1.2. BROYDEN, FLETCHER, GOLDFARB�


SHANNO C BFGS)

1B P P' IB'
u -u -u u
[62]
ufFOS _ (8
+
u+1 u Q.'u p~u P' !B
-u u -u
p

2.17.2. Método de AL-BAALI

� bem sabido, (DENNIS & SCHANABEL (1983),


AL-BAALI (1984), SEBER & WILD (1989)), que os Métodos de
GAUSS-NEWTON, MARQUARDT (e suas modificações) são bons
quando o problema a ser resolvido é considerado de resíduo
48.

zero ou de resíduo pequeno. Se o problema a ser resolvido é


de resíduos grandes. os métodos mais adequados são os
QUASI-NEWTON.
Isso motivou AL-BAALI a pesquisar métodos
híbridos. Dentre os métodos pesquisados considerou o melhor,
denominado de HBY2, hoje conhecido como HY2 (XU (1986)).

2.17.2.l. Algorítmo do Método Híbrido HBY2

Se problema é de resíduos grandes


então use Métodos QUASI-NEWTON
senão use Método GAUSS-NEWTON.
Fim.

Esse método será detalhado mais adiante (seção


2.17.3.2.).

2.17.3. Método de XU

2.17.3.1. Introdução

XU (1986) mostrou que o algoritmo HBY2


proposto por AL-BAALI não preserva algumas das propriedades
do método BFGS; provou que o problema se encontra na
expressão usada para decidir o tipo de método a ser usado,
QN ou GN, e propôs um novo teste (T)
u
para a decisão.
Embora conjecturas teóricas mostrem que um
novo algorítmo, HY3, deva ser usado, conclui que pela
simplicidade de HY2 este deve ser o preferido.
Note que a diferença entre HBY2 e HY2 reside
apenas na expressão usada para se decidir se o problema é de
resíduos grandes ou não, isto é :
49.

{
o ===> problema de resíduos grandes
T ___..
1 ==s> problema de resíduo zero.

2.17.3.2. Algorítmo do Método HY2

1) u = O : escolha e
~o
2) calcule Z'Z ·
u u"
se for positiva definida,
faca
, lBu = z·u Zu
..J.
3) resolva [BC
u -u
= - Zu' (Y - [ ) para C--u

4) obtenha � tal que


[RC� ; e
-u
e ) < R(%
+ (X
u-u
e~u ) J
calcule e
-u+1.
= e
-u
+� u-u
e
5) obtenha zu+:1 usando a expressão de BROYDEN
' z
(1965) ,. [Bu+:1=Zu+1 u+:1

6) calcule Tu -
li y - l
u

n2 -
li y - l
u+:1
n2
li '!. - l
u

n2
7) u = u + 1

8) resolva lB C = - Z' ( Y - f
u-u .,,.,,, u )
u -

9) obtenha �
u
tal que
R(%; e
~u
e ) < R(% .,
+� u~u e~u )
10) se Tu+:1 2: 0,2 (onde 0,2 serve para evitar

dificuldades)
então obtenha Zu+ :1 usando a expressão de
BROYDEN (1965)

senão calcule Zu+í através de derivadas.


11) se Tu+í < O, 2

então obtenha [B
u+:1
usando o Método BFGS
50.

senão 1Bu+:1. = Z'u+'.1. �u+:1. (GN)

12) volte ao passo 6

2.17.3.2,1. Expressão de BROYDEN (1965)

u+1.
). [(Y
u
(9 - 8 - f ) - (Y - f ) -
zu+ 1. - zu + -u+ 1. -u - -

- e )'
- -.r

ce
~u+ 1. ~u ~u +1. - e
ce ~u )

- Z' e e - e
-u -)] '
-u
u +1.
[63]

2.18. Escolha dos Métodos Dentre os Estudados

Como não é possível saber de antemão o tipo de


problema que se tem, e partindo-se do pressuposto que
estejam disponíveis todos métodos apresentados, sugere-se :
• Método Híbrido ( XU)
, Método NEWTON modificado DENNIS, GAY &
WELSCH)
• Método QUASI-NEWTON ( BFGS )
• Método de MARQUARDT ( original ).

Nesse trabalho o usuário poderá optar, dentro


da teoria dos mínimos quadrados, pelos seguintes métodos
• Método de GAUSS-NEWTON ( original )
• Método de MARQUARDT ( original )
• Métodos QUASI-NEWTON
. DFP
BFGS.

A opção GAUSS-NEWTON é justificada pelo fato


do usuário poder resolver modelos lineares em apenas uma
iteração.
51.

2.1s.1. Considerações Práticas

SEBER & WILD (1989) tem feito algumas


considerações práticas, admitindo o problema da adequação
"modelo-dados" resolvido, expostos a seguir
- Se o usuário sabe de antemão (baseado em
experiências semelhantes) que tipo de
problema tem, pode resolver utilizando o
método mais adequado.
- Se o usuário não tem experiência alguma deve
começar por MARQUARDT.
- se o método de Marquardt converge com À

pequeno então o problema está resolvido. a


menos que o m odelo não seja estatistica­
mente adequado.
se há convergência com À grande ( > 0.1 )
o usuário deverá verificar a adequação do
modelo estatisticamente (ANOVA por
exemplo). Pode ser possível melhorar as
estimativas usando algum Método QUASI­
NEWTON.
Nesses casos o problema pode ser considerado
de resíduo zero ou resíduo pequeno.
- Se o método falha ou À oscila muito sem
convergir para valor algum, o problema pode
ser de resíduos grandes. Sugere-se nesse
caso o uso de Métodos QUASI-NEWTON.
Se o usuário supõe (baseado em experiências
semelhantes) que o modelo é de resíduos
grandes. deve começar por algum Método
QUASI-NEWTON, sugere-se o BFGS.
2.19. Método dos Mínimos Quadrados Generalizados

� utilizado quando os erros são correla­


cionados e/ou heterocedásticos.
Assim :

onde fi.l é uma matriz simétrica, positiva definida e


conhecida.
SEBER & WILD (1989) dentre outros, tem
mostrado que o sistema de equações normais para os Métodos
dos Mínimos Quadrados Generalizados é dado por :

2.19,1. Método Generalizado de GAUSS-NEWTON

1 u
0-u+1 = 0...,.u + ( Z'u fi.1- Zu ) -t Z'u fi.l-:1. ('� - f ) [64]

e por analogia :

2.19.2. Método Generalizado de MARQUARDT

+ Àll )-:1. Z' W-:1 l_


'Y - f
~u ) [65]
u

2,19.3. Método QUASI-NEWTON Generalizado

[66]

2,20, Método dos Mínimos Quadrados Ponderados

É utilizado quando os erros são heterocedás-


tices, isto é
ll)o,2 )
53.

onde 1D é uma matriz diagonal positiva definida.


Ê fácil verificar que o Método dos Mínimos
Quadrados Ponderados é um caso particular do Método dos
Mínimos Quadrados Generalizados.
1 1
Substituindo IW- por ID- em [ 64 J, [65], [66]
tem-se os Métodos Ponderados de GAUSS-NEWTON, MARQUARDT e
QUASI-NEWTON, respectivamente.

2.21. O Problema da Estimativa Inicial C�o)

É bem sabido que qualquer método utilizado


para regressão não-linear necessita de uma boa estimativa
~o para que � o processo convirja para a estimativa de
inicial 0
mínimos quadrados, �
O valor da estimativa inicial pode ser
conhecida
- por estar ligada ao desenvolvimento teórico
do processo ;
- por experiências semelhantes ;
pode ser ainda desconhecida e/ou totalmente empírica.
Algumas técnicas para a obtenção de valores
iniciais são mostradas a seguir, sugerindo ao leitor que se
um determinado método falhar, ele deve tentar outros até
conseguir um que seja
satisfatório. Se todos métodos
falharem, provavelmente o conjunto modelo/dados é
inadequado.

2.21.1. Método do Modelo Aproximado

Consiste em transformar o modelo não-linear em


um modelo linear aproximado, do qual se obtém estimativas,
que são usadas como "chute" inicial para o modelo não­
linear.
Considere por exemplo o modelo não-linear
Y. � + e que pode ser trans:formado no modelo aproximado
Y. � e assim
ln Y. = e ln � + ln f
é um modelo linear e a estimativa de 0 no modelo linear será
usada como e o no Modelo Não-Linear.
Esse método foi usado por FIGUEIROA (1986)
para ajustar o Modelo de COBB-DOUGLAS.

2.21.2. Métodos de HARTLEY & BROOKER (1965)

Consiste em transformar o problema dado em um


problema de resíduo zero, dividindo o conjunto de n
observações em um conjunto de p observações, onde p é o
número de parâmetros do modelo, e cada observação p é a
média aritmética das k observações da divisão de n por p .
Exemplo: Suponha (Xi, Yi) , i =
1, 2... , 20 e P = 3; então
uma alternativa é :
X1 = média aritmética de e x1 , ... , xó > n = 6
X2 = média aritmética de e x7 , · · · , x12 >
X3 = média aritmética de (X13 , ... ,X20 ); n =

Idem para Y.

Dessa forma tem-se agora um problema de


resíduo zero, ( p equações a p incógnitas) que pode ser
resolvido de forma satisfatória usando-se MARQUARDT, com
algum "chute" inicial. A estimativa Q obtida dessa forma é
0
~o para o problema inicial.

2.21.3. Método de GALLANT (1985)

um caso particular do Método de HARTLEY &


É
BROOKER (1965), onde o usuário escolhe dentro da amostra de
n pontos, p pontos, e o modelo é transformado em um problema
de resíduo zero, cuja estimativa � e usada como "'º a do
problema inicial.
Obviamente que os p pontos escolhidos devem
ser representativos da amostra 1oonjunto de dados).

2. 21 • 4. Mé"lodo da .. MALHA••

Consiste em considerar uma reae !malhai de


pontos no espaço dos parâmetros. tomando para valor inicial
e o o ponto da rede para o qual o valor da :função objetivo
("Soma de Quadrados de Resíduos") é mínimo (citado no manual
do SAS, procedimento NLIN).
RATKOWSKY (1983) sugere métodos para obtenção
de estimativas iniciais para alguns "modelos de
crescimento", muito usados em pesquisa agropecuár·ia.

2.22. Introdução às Medidas de Não-Linearidade

GUTTMAN & MEETER (1965), citam que "as medidas


de não-lineal:'idade sà'o expressôes que indicam se o grau de
não-linearidade em um modelo de regressão não-linea1'.• é
pequeno o suficiente para justificar a utilizaçà'o dos
resultados usuais da teoria dos mocielos lineares como
aproximaçà·o pa1'a os nà·o-lineares."
BEALE (1960) foi o pioneiro a questionar essa
validade, propondo a "medida� não-linearidade intrinseca
.d.o. modelo", isto é, medida que indica se a curvatura da
superficie de estimação é acentuada ou não nas proximi­
dades do mínimo.
DRAPER & SMITH (1981) citam que no caso da
regressão não-linear as propriedades das estimativas dos
parâmetros são válidos apenas assintóticamente, isto é, para
grandes amostras; afirmam que as inferências sobre o vetor
de parâmetros (usando técnicas de regressão linear) apresen­
tam resultados apenas aproximados, cuja validade depende do
"grau de não-linearidade do modelo" ser pequeno.
56.

BATES & WATTS (1988) estudam as medidas de


não-linearidade do modelo através de conceitos geométricos.
Citam que a validade das inferéncias aproximadas (por
exemplo, intervalo de confiança para parâmetros), dependem
da superfície de estimação ser quase plana (medida d.e. n.ã.Q=
linearidade intrínseca) e possuir coordenadas quase
uniformes (medida ® não-linearidade efeitos
parâmetros), que são as propriedades fundamentais do plano
de estimação no caso linear.
Resumindo, conclui-se que se as medidas de
não-linearidade são baixas, então o comportamento do modelo
não-linear na estimação se aproxima do comportamento dos
modelos lineares, isto é, os estimadores de mínimos
quadrados€ serão "quase não viesados", quase normalmente
distribuídos" e as variâncias dos estimadores serão próximos
daqueles obtidos pela matriz de variâncias/covariâncias
· to'ticas
assin · =
�u �u )-:1 ..,
( -»• ,_z, 1· sto é :

[ e~ ,
RATKOWSKY (1983) apresenta um exemplo didático
sobre medidas de não-linearidade. Como o procedimento para
obtenção dessas medidas não é trivial
(envolve matrizes
tridimensionais de derivadas de 2ª ordem do modelo) fornece
um programa escrito em FORTRAN para obtê-las. Espera-se que
em um futuro próximo existam expressões alternativas a essas
medidas de não-linearidade.

2.23. Análise de Variâncias e Teste de Hipótese Sobre


o Modelo

DRAPER & SMITH (1981) afirmam que no caso da


regressão não-linear, a análise de variâncias não é uma
ferramenta ütil, já que não se deve concluir a partir do
teste F, se o modelo é adequado ou não.
,-.
/
.
.
; lsar-:::::e-a nesse Análise de
Variâncias ,ANOVA, um i:::ignificància
,:::orne,
apr·oximaào. ou C<)mo uma medida de eomparaçao entre modelos.
AE:sim o quadro de análise é:

Causa de variação gl 3Q �) F

Regr·essâ() p SQRegr QMRegr Fc


Resi duo n-p SORes QMRe::::
Total ;') SQTo

onde
e o numero Ge parEü11et-roE: rnodelo. CtO

e o número total d.e observaçoes.


3QTo e a soma de quadrados total sem a
correção.
SQRes é a soma de quadrados dos resíduos
(erros).
SQRegr é a soma dos quadrado e: da regressão.
QMRes é o quadrado médio dos resíduos, que
2
estima a variância dos erros o- .

Fc e a estatística que testa


(aproximadamente) as hipóteses
Parâmetros tais que E[�]= O [67]
H1 Sem restrição nos parâmetros
P. de forma usual
2
·3QTo = li X' X 11 [68]
li
2
SQRes = li 'i - � � 11 =
2
!; 11 [69]
SQRegr -- SQTo SQRes [70]

- SQRegr
�)MRegr [71]

,--J.''lº
Vi
_ -·
..1.\eb
_
-
3QRes
n-i::,

Fc _ QMRegr [73]
QMRss
com o teste de hipóteses :
n-n. l-o<>

entào re.j ei ta-se isto e. ecceita-se Hl. e


,�,onclui-se que o "modelo é adequado".
ou que representa razoavelrnente bem o
conjunto de dados:
senao isto e. conclui-se que
o "modelo é inadequado".
Da tabela de análise de variâncias, pode-se
também obter o "coeficiente de determinaçào"

;3QRegr
SQTo [74]
2
que indica que a regressão explica ( 100. R );� das variações,
2
isto é, os valores de '!, são explicados em ( 100. R )'.?� pelos
valores de %.
Para que se possa comparar o "coeficiente de
2
determinação" R de modelos de regressão distintos faz-se
. . -
necessaria uma correçao em Rz de tal forma que a nova
medida seja independente do número de parâmetros dos modelos
a ser comparados.
Essa nova medida é definida como "coeficiente
de determinação ajustado" (DRAPER & SMITH (1981)), ou como
"coeficiente de compar·açao" ( K0LB ( 1982) ) , e é dada por
2
( 1- R ) • (n - 1 )
RR - 1 - [75]
( r, -p )

2.24. Matriz de Variâncias e Covariâncias Assintóticas

DRAPER & SMITH (1981), DONALDSON 0


Ol SCHNABEL
(1987) sugerem que a matriz de variâncias e covariàncias
assintótica seja expressa por
2
O' [76]
59.

onde a matriz Z , definida em [28], é aquela para a qual se


obteve a convergência.
Se o método utilizado e QUASI-NEWTON, então
[77]

onde a matriz IH definida em [54] é aquela para a qual


se obteve a convergência.
Uma estimativa para as matrizes de variância e
covariâncias assintóticas, W pode ser obtida usando o
2
QMRes como uma estimativa para a . Assim

W = QMRes. (Z'u Zu )-1. [78]


ou
W - QMRes. IH [79]

2.25. Intervalo de Conf'iança para os Parâmetros

DONALDSON & SCHNABEL (1987) concluíram que se


as medidas de não-linearidade são baixas, então o intervalo
a 100(1 - 0<)% de confiança para os parâmetros € em
analogia aos modelos lineares, é dado por:
:l./2

(n-p;0</2}
k 1, 2, ... , p [80]

onde
�é a estimativa do vetor de parâmetros€ .

Wkk são os elementos da diagonal da matriz de


variâncias e c ovariâncias assintóticas.
t<n-p;0</2> é o valor da distribuição t de
student, com n-p graus de 1 iberdade
e tal que :
P [ 1 t 1 !: t ( n-p ;ov2 ) ] = l -0<
n é o número total de observações.
P é o número de parâmetros do modelo.
60.

2.26. Matriz de Correlação Assintótica dos Parâmetros

DRAPER & SMITH (1981) citam que a matriz de


correlação assintótica dos parâmetros é dada por:
QLJ
..
� = [e.]= [81]
LJ
( QL1.. Q.. r 1 /2
JJ
onde
© - (Z' Z )- 1 com Z definida em [28] e tomada
u u u
quando a estimativa dos
parâmetros é obtida.
ou
definida em [54] e tomada na
convergência do processo QUASI-
NEWTON.

A matriz de correlação assintótica dos parâ­


metros serve para verificar se o modelo é apropriado ou se
necessita de alguma reparametrização.
- Se C.. é grande (tende
1.J
para 1), indica que o modelo está superametrizado e que o
usuário pode tentar uma reparametrização (retirada de 1 ou
mais parâmetros).

2.27. Análise dos Resíduos

A análise dos resíduos tem por objetivo


verificar se as pressuposições a respeito do vetor de erros
(seção 2.5) não foram violadas, e também detectar pontos
influentes e/ou discrepantes.
Uma ou mais observações são ditas discrepantes
(outliers) se seus resíduos são muito grandes (em valor
absoluto) em relação aos demais; podem se distanciar da
média zero dos resíduos em 3, 4 ou mais desvios padrões
(DRAPER & SMITH (1966)).
Pontos influentes são observações que, embora
não apresentem resíduos grandes, podem alterar significati-
vamente os parâmetros do modelo escolhido.
Ê bem sabido que o vetor de erros. é
desconhecido ; uma estimativa , E para esse vetor é dada
por
[82]

onde X são os valores observados e X são as estimativas de


X , obtidos através do modelo ajustado, isto e,

X - /C� ; €> C83J


Dessa forma o vetor f pode ser considerado
como uma quantidade que o modelo ajustado não consegue
explicar.
Assim, se o modelo é adequado admite-se que o
vetor � represente o verdadeiro vetor de erros
desconhecido.
Obviamente espera-se que o vetor e tenha
componentes próximos de zero, isto é, que o modelo reproduza
os dados originais com o menor erro possível.
DRAPER & SMITH (1981) citam que considerando
as pressuposições a respeito do vetor de erros (seção
2.5.), pode-se escrever :
e N(p IJ (Y2 ) [84]

COOK & WEISBERG ( 1982) dentre outros,


consideram que a estimativa do erro, f , pode estar contida
em qualquer intervalo, e sugerem uma normalização no vetor
~ , isto é :
e

[85]
-./ QMRes

dessa forma e
.,.N
~ N(�'.t'." ; IJ) que restringe probabilisti-
camente ao intervalo [-5 ; 5], mais especificamente, pode-se
esperar que 95% dos valores estejam no intervalo
[ -1,96 :S :S 1, 96 ] , isto é :

P [ -1 , 96 :S fN :S L 96 ] - O , 9 5 [86]
onde &
~N
é conhecido como "vetor de erros normalizados".
Embora existam outros tipos de erros
(estudentizados internamente, estudentizados externamente,
DFFITS, etc ... ) eles não serão estudados neste trabalho.
Detalhes podem ser encontrados em COOK & WEISBERG (1982),
MACHADO (1991), dentre outros.

2.27.1. Análise Gráfica

t o instrumento mais ütil da análise de


resíduos pois pode dar indicações diretas de quais das
pressuposições, a respeito dos erros, foram violadas. Indica
também a presença de pontos influentes e/ou discrepantes.
DRAPER & SMITH (1981) apresentam diversas
alternativas para "plotar" os erros (histograma, contra cada
variável independente, contra a variável dependente, etc .. ).
Concluem que a melhor é "plotar" e
~N
versus Y~ , pois não há
correlação entre e
~N
e Y_ isto é :
,
� �
Cov [ fN ; 'i ] - <1! [87]
além disso,
[88]
matematicamente.
NETER & WASSERMAN ( 197 4), DRAPER & SMITH
(1981), MACHADO (1991) dentre outros, apresentam formas
características dos gráficos dos resíduos.
Apresenta-se a seguir alguns desses gráficos.
63.

CASO CONCLUSÃO

Condição ideal das exigências do modelo

i,
•1 ,56

o Heterocedasticidade
-1,96

t,
+136

Heterocedasticidade
-t ,56

Heterocedasticidade

Heterocedasticidade

+t 9E

� �
·
----- -
Correlação positiva entre erros
-
-t

tempo

Correlação negativa entre erros


tempo

Existência de observações discrepantes


0

FIGURA 3. Gráficos dos Resíduos.


2.27.2, Análise Estatística

Embora a análise gráfica seja simples, na


prática ocorrem dificuldades, pois as conclusões obtidas,
pelo julgamento de diferentes observadores, podem ser
distintas para o mesmo conjunto de dados.

2.27.2.1. Teste de CHORRILHOS

É uma estatística para testar se os erros são


aleatórios, isto é, testa-se a hipótese :
os erros são aleatórios.
[89]
H1 os erros não são aleatórios.

Se o teste concluir que os erros não são


aleatórios, o usuário deve, dentre outras opções, selecionar
outro modelo (os erros devem ser aleatórios para que o
modelo seja aceitável).
FIGUEIREDO (1977) apresenta o "Teste de
CHORRILHOS", cuja sequência é :
calcula-se o vetor de erros f
ordena-se o vetor f em ordem crescente
- calcula-se a mediana do vetor f .
se n (número de observações) é ímpar, a
mediana está na posição n + 1
se n é par, a mediana é a média aritmética
entre os valores n / 2 e seu sucessor
- substituir os valores dos erros por 2
símbolos quaisquer, tal que
1 2 símbolo para os valores menores que a
mediana;
22 símbolo par·a valores maiores ou iguais a
mediana.
Nota : esse passo deve ser feito no vetor
original f (não no vetor ordenado).
65.

- contar o número de simbolos :


n.1 - número de símbolos do 1 2 tipo
n2 - número de símbolos do 2� tipo
- calcular o número total de chorrilhos, r.

Fato : Chorrilho é definido como uma sucessão


de símbolos idênticos, os quais são seguidos
ou precedidos por um símbolo diferente ou
nenhum símbolo.

Exemplo

+ + + + + +

n1. = 6 ( -)
n2 = 6 (+)
r = 5 ( D J

- se n ou n são maiores que 20, calcula-se


2

2 n 1 n2
r - + 1)
n + n2
[

z -
- [90]
2 n1 n2 2 n 1 n2 - n1. - nz)
/ (n :1 + n2 ). . (n:1 + n2 - 1)
2

- se n e n são que 20,


menores usando
2
Tabela do ANEXO 4, obtenha ri n f e sup
- Decisão

Rejeita-se Ho s e 1 z 1 2:: 1,96


ou
Rejeita-se H se r < rinf ou r 2: rsup
66.
2.27.2.2. Teste de LILLIEFORS

� uma estatística para testar se a distri-


buição dos erros é normal (pressuposição IV), isto é,
testa-se a hipótese
os erros tem distribuição normal.
[91]
os erros não tem distribuição normal.

Se o teste concluir que os erros não tem


distribuição normal, o usuário deve, dentre outras opções,
tentar alguma transformação de variáveis.
CAMPOS (1983) descreve o teste de LILLIEFORS
(1967) que transcreve-se a seguir :
- calcula-se o vetor de erros f com n
observações.
- calcula-se a média e o desvio padrão dos
erros, isto é

m - [92]

[93]

- ordena-se os erros em ordem crescente.


- para cada valor do erro t;
1.
ordenado,
calcula-se

E. -
z -
- [94]

z 2
Q( z )
1 /2 dt
-- p ( z !:: z ] l.
-- j
-t

"f 2rr -co

s - i
n
67.

D = Máximo [ 1 Q ( Zt ) - S1. 1 I Q (Z1.-1 ) - ,'\-1


� I] [95]
com I G ( Z o '1 - S o 1 - - 100

- Decisão :
Rejeita-se He, se D� D .n\ 1
onde Dtn> s dado
na Tabela do ANEXO 1.

Para que esse procedimento possa ser executado


por um computador. se faz necessária a inclusão do "cálculo
do nível de significância obser·vado", Q( Zt l
ABRAMOWITZ & STEGUN (1970>, sugerem dentre
outros. a seguinte sequência
- Dado�

calcular f(
.., z ) =
!_, '
y 2rr
onde e� 2.7182 ....

calcular t =
1 + r � I z, I [97]

onde r = 0,2316419
- calcular R

R - / ( Z ) . [ I: b . tJ ] [98]
J = 1

com:
o - 0.31938153
-
b = -0.356563782
b - l.781477937
- -1.821255978
b -
b - 1,330274429

[99]

Fato

m a =0

o
68.
2.27.2.3. Outras Estatísticas da Normalidade

Se o teste de LILLIEFORS conclue que os erros


tem distribuição normal, então a pressuposição da
normalidade dos erros foi atendida (seção 2_5_ ).
Se o teste conclue que os erros não tem
distribuição normal, é conveniente que se pesquise para
saber as causas da não normalidade. Na maioria das vezes
essas causas podem ser reveladas pelas estatísticas dadas a
seguir.
Média
� esperado que os resíduos, .e , tenham média
zero. Uma estimativa dessa estatística é
dada por:
r,

E
i.= 1.
m

Assimetria
� sabido que a curva normal é simétrica em
relação à média, ou que o momento de
assimetria, m , é zero_
Se ma < O então a curva tem uma simetria à
esquerda.
Se ma > O então a curva tem uma assimetria à
direita.

m >O m a <0
a

o o
69.

Compare com a normal dada na seção


2 .. 27 .. 2. 2., onde m -
-
o.

E
3
(e �)
1..= :1
n
ma - [100]

[
2
n
E (e �
)2
1.=:1
n r

- Curtose
o coeficiente de curtose, m , (ou
achatamento) para a curva normal é 3� outros
valores e respectivos acrônimos estão
ilustrados abaixo.

Leptocúrtica
_____ L"-.
:i::;.__L_� Platicúrtica Mesocúrtica

m >3 m <3 m e =3

Assim, se a curva pode ser considerada


simétrica, o coeficiente de curtose é dado
por·:
n
E - m
� 4
(e

r
1..
)

m -- n [101]
n

[ E
2
(e -
;
)

1..=:1
70.

2.27.2.4. Teste de ANSCOMBE para Homocedas­


ticidade

ANSCOMBE (1961) sugere que para testar a


homocedasticidade, isto é, os erros tem a mesmo variância,
deve-se fazer uma regressão linear simples

e
2
= a + b Y [102]

onde
e são os erros (resíduos) observados
" l,

Y L são as estimativas de Y

ambas do modelo de regressão Y = /(� ; (i?) + �


O teste consiste em verificar, pelo teste t de
Student. se b é igual a zero estatisticamente.
Assim as hipóteses
os erros são homocedásticos.
[103]
os erros são heterocedásticos.

são testados usando a estatística

1 b 1
T - [104]

/v[ b]
Conclusão :
Se T < tu·-,-z;CX/2) aceita-se os erros

são homocedásticos.

Uma forma computacional para o teste de


ANSCOMBE (1961) é dada pela sequência
2 �2
n E YL e.1- - (E Y L ) E (e1.. )
b - [105]
y2 -
2
n E L
CE Yl. )

4 CE Y ) - CE
L
e.
2
n
(Y [106]
n - 2
71.

V [ b J [107]
CE
)2
y
E ;r2
\.
l .

b
T - [108]

onde
n é o número total de observações.
n
E deve ser lido como E
\. =:I.

2.27.2.5. Teste de COOK & WEISBERG para


Homocedasticidade

C0OK & WEISBERG (1983) sugerem que para testar


as hipóteses
H0 os erros são homocedásticos.
[103]

r
� os erros são heterocedásticos.
seja usada a estatística :
-
[
r, -::'."
2
E (Y - Y) .e
i, = :1.

s -- n
[109]
E (Y -
4
Y)
2
2 CI

i. =:I.
onde
4 -
- QMRes
n r

E y
y -- i.= :1.

n
n é o número total de observações.

e pelo teste da razão de veross imilhança conclui-se que


72.

2
Se S -< �.
•; p,O{}
aceit.a-se Ho os erros são homocedásticos

onde p é o número de parâmetros do modelo t, - /(� º) + ,e

2.28. Matriz de Projeção Ortogonal

SEBER & WILD (1989) descrevem que, em analogia


aos modelos lineares, a matriz de projeção ortogonal, IP , é
dada por
IP - Zu ( Z'u Zu ) - i Z'u
n n
[110]

onde Z é definida em [28]


e tomada na convergência do
processo iterativo de regressão.
Fato Para os Métodos QUASI-NEWTON, tem-se

IP = Zu n;u Z'u
n n
[111]

A matriz IP , projetor ortogonal, tem diversas


propriedades importantes, dentre elas :
IP é simétrica, isto é, IP = IP'
2
IP é idempotente, isto é, IP = IP
- r [ IP J = r [ � J = r [ Zu J= tr [ IP J
- IP.\.\. pode ser usado para indicar se a
observação i. é um ponto influente ou
não, através do critério
Se
IP > 2p é um ponto
então X-1...
\.\. n
influente.
com P sendo o número de parâmetros do
modelo e n, o número total de
observações.
+ +
- IP - Zu zu onde zu é a inversa de Moore-

Penrose de Z
Note que usando a última propriedade, e
fácil demonstrar as demais.
COOK & WEISBERG (1983), dentre outros, tem
mostrado que
] - (1
V - - IP QMRes
[ s \
)
LL

ou
T7
V [ .e ]
-
- (O - IP) . QMRes [112]

Uma forma computacional de se obter os


elementos da diagonal de IP. é dada por

<
= =
( -»•
u ,,
u ) -:1.
<
. -=
,,
t,'-»
[113]
onde
é a linha i. da matriz Z

l� Z é o transposto da linha í. da matriz Zu

2.29. Simulação

Simulação é uma técnica que é utilizada


(dentre outras opções) para se v erificar quão adequado é o
"algoritmo da regressão", ou qualquer método de regressão.
Partindo de um modelo, um conjunto de dados, e
*
um vetor de parâmetros Q , conhecidos, calcula-se o valor
*
da variável dependente Y , usando Y = /(� ; €)
A seguir gera-se um vetor de erros
independentes, � , com distribuição normal, de média zero e
variância conhecida, que será adicionado a X , obtendo assim
y = (� ;
*
º) + � .
Usando o "algoritmo de regressão tenta-se
*
obter uma estimativa, @ do vetor Q .
Obviamente espera-se que o intervalo de
*
confiança de Q contenha o verdadeiro valor € usado na
simulação.
2.29.1. Geração de Números Aleatórios com Distri­
buição Normal

KNUTH (1969) sugere a seguinte expressão para


gerar números alea�órios :

SL+1 - frc [ 9821 SL + O, 211327 J [114]

6
com L = 1 , 2, 3, ... , 10 e frc indicando que se deve tomar
a parte fr·acionária da expressão entre colchetes, e S0 é um
valor inicial dado pelo usuário, tal que O < So < 1.
O autor cita que esse algoritmo pode gerar
l milhão de numeras aleatórios uniformemente distribuídos
entre O e l, a partir de que passam pelo teste
expectral.
BOX & MULLER (1958) sugerem o seguinte
algoritmo para obtenção de um par de variáveis aleatórias
independentes de mesma distribuição normal, com média m e
desvio padrão s :

E,
- m + s [(-2 ln S L .
)1/2
Cos ( 2rr s L+1 )]
[115]
E,
-- m + s [C-2 ln
,� )1/2
0. Sen ( 2rr s,..+1)]
L+1 L

Fato usar radianos para as funções


trigonométricas.
GODOI (comunicação pessoal) sugere que o
algoritmo de BOX & MULLER (1958), seja escrito como

Ul= 2rr s

U2 - (-2 ln sL+:l //2


E,
- m + s 02 Cos (Ul) [116]
75.

2.30. Método da Máxima Verossimilhança para Modelos Não­


Lineares

TURNER, MONROE & LUCAS (1961) mostraram que se


o vetor da variável dependente Y , é normal, independente-
mente distribuído e tem variância constante, os estimadores
de máxima verossimilhança são iguais aos estimadores de
mínimos quadrados.
Partem da suposição de que se o modelo
Y, = /(% : º)
+ � , é adequado, e'!, tem distribuição normal,
então o erro também tem distribuição normal, isto é

�,,.,, N (p ; !Jc/)

Dessa forma o valor da densidade de probabilidade para certo


valor Y é
1 [117]
f (Y) -
2
/ 2rro-

A (densidade de) probabilidade do modelo


'!. = f (% ; ter gerado tais valores de
@) + e yL é dado
pela função de verossimilhança
2
li'!. �) li
2
L(� . 1 e ( -1/20' ) f ('¾.
Y) - [118]

Logo a estimativa de máxima verossimilhança


coincide com a estimativa de mínimos quadrados, pois
maximizar a função de verossimilhança L(� : '!,) é o mesmo que
2
minimizar a função de mínimos quadrados IIY - /('¾. �)11 -
Note que a estimativa de máxima verossimi­
lhança depende da distribuição de probabilidade da variável
dependente, Y, , fato que não ocorre na estimativa de mínimos
quadrados.
HOFFMANN & VIEIRA (1987) apresentam o método
de máxima verossimilhança aplicado ao modelo particular :
X
Y - ai+ bc~ + �
76.

2.31. Regressão Não Linear pelo Critério dos Desvios


Absol utos ou Regressão Não Linear "L "
1

É uma opção robusta ao Método dos Mínimos


Quadrados. e consiste em minimizar a Soma dos Absolutos dos
Erros :
r,
min E jc. t 1 - min E [119]

No caso da regressão linear. NARULA &


STANGENHAUS (1988) apresentam de forma bastante didática o
procedimento adotado por KARST (1958).
No caso não-linear 3 opções tem-se destacado
Os Métodos de Programação Não-Linear
(BAZARAA & SHETTY (1979)) ;
O Método de Aproximação de TISHLER & ZANG
- O Método Iterativo de SCHLOSSMACHER.

Aqui, apresenta-se apenas o Método de


SCHLOSSMACHER, pois os problemas de otimização não-linear
estão fora do escopo desse trabalho.

2.31.1. Método de SCHLOSSMACHER

SCHLOSSMACHER (1973) propõe um processo


iterativo para calcular a regressão de desvios absolutos ou
regressão "Li ", partindo de uma regressão de mínimos
quadrados ponderados.
Seja o modelo X =/(% ; @) + e pelo
método dos mínimos quadrados ponderados

li !(
2
min f°ll = 11 ID (X - /(% ; �)) [120]

onde 1D é uma matriz diagonal semi-positiva definida.


Esse problema, usando a estratégia de
MARQUARDT, tem solução (seção 2.20.) dada por
77.

[121]

SCHLOSSMACHER mostrou que se u+:1


for
escolhido como sendo 1 1 IX então o processo
converge para regressão de desvios absolutos ou
regressão L1 ".

2.31.2. Algorítmo de SCHLOSSMACHER

1. u = O � !D - a forneça a estimativa
inicial e~u
2. Calcule e-u+1. usando :1 a expressão [121]
+

g -- X
fu
3. Calcule

4. Se 11\I > 10-


6
k = 1, 2, ... , n
--
então Dkk 1 / 11\1
senão .. Dkk -- o
onde Dkk é o elemento da diagonal de 1D
5. Critério de convergência (seção 3.4.2.3.)
6. u = u + 1 e volta ao passo 2

2.31.3. Algumas Considerações

DIELMAN & PFAFFENBERGER (1982) apresentam


algumas propriedades dos estimadores da regressão L:1
(linear). Mostram que existem a lguns resultados assintóticos
para inferência na regressão L1 (linear), mas não citam sua
validade para as regressões não-lineares.
Nesse trabalho a regressãoconsiderada é
apenas como uma opção robusta em relação à regressão 12 e
,
as comparações limitam-se aos resultados da regressão L 2

em relação aos mesmos resultados da


t = :1
regressão 11•
78.

O leitor poderá notar visualmente. através do


gráfico gerado pelos r·esultados das regressões L1 e L2 .· que
a regresssao L1 mui tas vezes apresenta melhores resultados.
79.

3. DESCRIÇÃO DO SISTEMA COMPITTACIONAL

3.1. Escolha do Modelo

O problema da escolha do modelo e resolvido


considerando que o usuário é capaz de fornecer, ou
selecionar. uma função que represente seus dados de forma
satisfatória.
Dessa forma criou-se 2 opções, a saber
- Biblioteca de modelos
- Função do usuário.

A biblioteca contém modelos usuais (lineares,


linearizáveis e não-lineares) que podem ser acessados
através do "nome da função".
Se o modelo é especifico, e não consta da
biblioteca, o usuário pode fornecer seu modelo matemático no
menu "função do usuário".
Obviamente o leitor poderá for·necer um modelo
da biblioteca no menu "função do usuário", e o mesmo será
calculado.
Deve ser ressaltado. que na opção "função do
usuário não é necessário fornecer as derivadas do modelo em
relação aos parâmetros, pois essas derivadas são calculadas
numericamente.
80.

No caso da "biblioteca de modelos", existe um


arquivo contendo
O modelo propriamente dito
- As derivadas analiticas do modelo em relação
aos paràmetros.

Dessa forma o leitor deverá optar, sempre que


possível, pelos modelos da biblioteca pois, além de maior
precisão, são mais rápidos.

3.1.1. Modelos da Biblioteca

Esses modelos foram extraidos de KOLB (1982),


do arquivo Models da HP71, de diversos artigos dos
periódicos Chemical Engineering, Biometrics, JASA, etc... , e
também de algumas teses e dissertações apresentadas na
ESALQ/USP.
Deve-se ressaltar que no computador o usuário
pode verificar a expressão matemática do modelo,
selecionando o nome da função e a seguir pressionando a
tecla de ajuda Fl.

3.1.1.1. Relação do Modelos da Biblioteca

Modelo Expressão Matemát.ica

Reta Através de Origem y -


- ax + E,

Parábola Através da Origem y - ax + bx + E,

Hipérbole b +
y a + E,

Hipérbole de Segunda Ordem y - a +


b + - 2
+

y -
b
Potência - ax + e
y -
c
Potência com "Off Set" - a + bx + E,
81.

Modelo Expressão Matemática

b
Potência com 2 Termos y -- ax ..... ex + E.

b d f
Potência com 3 Termos y -- ax + ex + ex + e

Potência Modificada y -- ab:< + E.

Potência Modificada
com "Off Set" y -- a bc
�(
+ + E.

1
Reciproco de Reta y -- a + bx
+

Logistica y -- .,
+
1 + bc
x>
Raiz y -- ab'1/ + t:,

bx
Super-Geométrica y ax + e
<b ,..,,.. x>
Raiz Geométrica y - ax + e

Linear-Hiperbólica y -
- a + bx + -e +

y -
X
Reciproco de Hipérbole - +
a + bx
bx
Exponencial y - a e + E.
e -
- 2,7182 . . .
y -
- a( 1 - e
bx,
Exponencial Assintótica J + E.

e -- 2,7182

y -- a(e
bx x )
Exponencial Dupla ec + E.

e -- 2,7182

y -- a e
< b/x >
Raiz Exponencial + E.

e -- 2,7182 . . .
bx
Linear Exponencial y a X e + E.

e -
- 2,7182 . . .
Logarítmica y -- a + b . ln (ex) + E.

1
Reciproca de Logarítmica y -- a + b ln (ex) + e

Função de Hoerl y -- abx X + s


x>
Função Raiz de Hoerl y -- aba/ X + E.
82

Hodelo Expressão .Matemática

,; :< -b > .-· e


Distribuição Normal y -- a e + E;

e -- 2,7182 . . .

y -- a e
e. lr,1x > -b> /C
Distribuição Log-Normal + e

e -- 2,7182
b . e
Distribuição Beta y - ax ( 1 X) + €.

]e
(
- < :</bl
Distribuição Gamma y - a
X
e + s
b
- 2,7182
e - ...
Distribuição de Cauchy y -- 1 + s
a(x b) e
2
+ +

Senóíde y -- a sen(b + ex) + €,

Senóíde com "Off Set" y -- a sen(b + ex) + d + e

Cossenóide y -- a eos(b + ex) + ê.

Cossenõide com "Off Set" y -- a eos(b + ex) + d + e

Seno-Fourier com 2 Termos y -- b + c sen(ax) + E;

Seno-Fourier com 3 Termos - b


y - + c sen(ax) +

+ d sen(2ax) + e

Seno-Fourier com 4 Termos y -- b + e sen(ax) + d sen(2ax)


+ e sen(3ax) + e.
Cosseno-Fourier 2 Termos y -- b + c cos(ax) + E.
Cosseno-Fourier 3 termos y -- b + c cos(ax) +
+ d cos(2ax) + e.
Cosseno-Fourier 4 Termos y b + e cos(ax) + d cos(2ax)
+ e cos(3ax) + e

Fourier com 2 Termos - b


y - -;::,; + c cos(ax) +
+ d sen(ax) + e

Fourier com 3 Termos - b"


y - + eos(ax) + d sen(ax)
+ e eos(2ax) +
+ f sen(2ax) + s
33.

Modelo Expressão Matemática

Fourier com 4 Termos b


y -- ;=:; + e cos( ax) + d sen(ax)
+ e cos( 2ax l + f sen(2ax)
+ g cos(3ax) +
+ h sen(3ax) + E.

Cosseno hiperbólico y -- a + cosh (b + ex) + t:.

Secante hiperbólica - a + sech (b + ex) +


y - t:.

Reta y -
- a + bx + €,

2
Parábola y - a + bx + ex + E,

y -
- a 2
Cúbica + bx + ex + dx + s

Polinômio do 4sc Grau


2 3
y - a + bx + ex + dx + ex + t::

2
Polinômio do 19� grau Y - a + bx + ex +
19
+ ... + tx + s
3) 2 1 2
Prunty-2 Y a + bx + e [(x-d )+e)] / +s
{

2 e]1,,,-2
Prunty-3 Y - [
a + bx + e (x-d) +

-c<x+b> ]
Mitscherlich-1 y a[l lO + é.

-C{X +b)]
Mitscherlich-2 Y = a[l 10 1 •

-d<x +e>]
. [1 10 2 + é,

-c<x +b>]
Mitscher·lich-3 y a[l 10 1 .
-d<x +e>]
. [1 10 2 •

10-f(x3+g l e
>
. [1 - +
-c<x+b>
2g Lei de Mitscherlich y a[l lO ] •

.[lO-d<x+b> e.
2
] +
Plano y - a + bx1 + ex2 + s
2
Superfície do 2sc Grau y - a + bx + ex+ dx1 v
1 2 ··2
+ ex1 +

+ e.
2
+ fx

13
> Biometrics ( 1983).
J4.

Modelo Expressão Mat.emática

Espaço do 2ª Grau ":_,T


.L -
- a T bx + c:z2 + dx1 X2 +

2 2 2
ex f? 2 T gx 1 :o<:2 +

2 2 2 3
hx A
2
+ Í?
1
:,-:
2
T
JX1
+

+ kx +

Hiperplano (3 variáveis) ,_,


J.
- a + bx + 1.-::.:>: + dx3 + e
2

Super·fície do 3'"' Grau y -- a + bx + e::..:2 + dx3 +

+ ex ,,2 + fv X3
1
--,- gx2 x3 +

2 2
+ hx1 + ix2 + j x3 T

FIGURA 4. Relação dos Modelos da Bibliot.eca

3.1.1.2. Um Exemplo do Arquivo de Modelos da


Bibliot.eca

Considere o modelo Prunty-2 :


2 2
Y = a. + bx + e [ ( x - d l + e ) ] .t/

que r·epresenta 2 retas com intercepto em d.


Se e - O o intercepto é abrupto: se e - 1 o
intercepto é suave.
Para calcular o jacobiano (matriz
necessita-se da aerivadas
• - ' . . \4,)

a Y - 1 ô y ô y
- X
ô a ô b ô e

\4)
O autor agradece ao Prof. Dr. Ary O. Chiacchio, do
Departamento de Matemática do IMECC/UNICAMP pelo apoio,
conferências e sugestões.
B5.

ê)y -e (x - d) a Y e
ô ó a e 2[(x - d)
2
+ ef/
2

De posse do modelo e suas derivadas, pode-se


criar o campo principal do arquivo .DBF
�: P, X, G, M :
G[l] - 1
G[2] - X[l]
M = X[lJ - P[4J
G[3J = INDC (M * M + P[5J > = O ) *
SQRT (ABS (M * M + P[5] )) + 0,001
G[4] - -P[3J * M/G[3]
G[5J - P[3]/(2 * G[3J)
M = P[l] + P[2] * G[2] + P[3] * G[3J}

que, particularmente, representa o modelo Prunty-2 da


biblioteca.

3.1.2. Modelos do Usuário

Se o modelo é específico, o leitor pode optar


pela "função do usuário". Nesse caso, o computador
apresenta :
- O nome das variáveis independentes
disponíveis : X[l], X[2J , ... , X[20]
- O nome dos parâmetros disponíveis :
a, b, ... ,t
- O nome das funções matemáticas disponíveis
(através de uma tela de ajuda) : +, *,
... , sin, ...
e o usuário deve entrar sua fórmula usando as regras da
álgebra.
Isso é possível devido ao "Interpretador .de.
Fórmulas", que a partir de uma string ( "função do usuário")
retorna um valor numérico (CHIACCHIO (1990)).
86.

Considere o modelo que


deve ser expresso como
a+ b"x [1] * x [1] ·e
já que existe apenas uma variável independente x _,.. x[l], e
3 parâmetros: a, b, e.
Seja o modelo
Y =a+ b sen x +e cos x2 +d sen x. cos x2 +e
-1 í

Assim o modelo deve ser expresso por

a+ b* sin(x[l])+e* cos(x[2]) +d* sin(x[l])* cos(x[2])

Considere o ajuste de uma poligonal (HOFFMANN


& VIEIRA (1987)), dado pelo modelo Y =_r(%; 12) +c , onde :

a+ b x se x < O
y ={
a+ (b+e) x se x > O

então o modelo do usuário é

a+b * (x[l]) +e* (x[l]) * INDC (x[l] > O)

onde a função "indicador", dada por INDC (x[ 1 J > o), retorna

{
o se x[l] :S o

1 se x[l] > o
De forma genérica, a função INDC (a operador
b) retorna
o se (a operador b) for falso
1 se (a operador b) for verdadeiro

onde os operandos (a, b) podem ser compostos por expressões


complexas
Veja por exemplo a expressão G[3] do modelo
Prunty-2 na seção 3.1.1.2. ; é fácil concluir que o segmento
abaixo:
IF M * M + P[5J >=O
THEN G[3J - SQRT (M * M + P[5J) + 10
-3

3
ELSE G[3J = 10-
87.

foi substituído pelo seu equivalente INDC ( ).


Isso é necessário visto que um arquivo .DBF
não pode conter a sequência IF ... THEN ... ELSE ...

3.2. Hardware

3.2.1. Necessário

Computador padrão IBM-PC, com :


Pelo menos 640 kbytes de RAM
- Unidade de disco rígido
- Pelo menos um drive de 5 1/4
- Monitor monocromático
- Teclado.

Embora o software "rode" em um XT, deve-se


optar por máquinas mais velozes (286, 386, 486 ou algum
microprocessador mais recente).

3.2.2. Opcional

- Impressora padrão Epson 80 colunas


- Monitor policromático CEGA, VGA)

3.3. Software Necessário

- Programa executável "REGRE". incluindo todos


arquivos de suporte.
88.
3.4. Descrição do Software

O sistema e composto por 12 ar·quivos com


aproximadamente 10.000 linhas de programa.
A linguagem Clipper foi utilizada devido a
dois fatores principais :
Facilidade de construçào de telas gráficas
de entrada e/ou saida de dados, conhecidas
como janelas ;
- Possibilidade de acesso a outras linguagens
de programação, como por exemplo, a
linguagem C. (de onde se extraiu as funções
trigonométricas. hiperbólicas, transcenden-
tes, etc ... )

A descrição do software será limitada aos


procedimentos de regressão não-linear, posto que é o tema
central desse trabalho.

3,4.1. Descrição Gráfica das Opções do Software para


Regressão Não-Linear

Descreve-se graficamente as conexões (opções)


entre
- Métodos
- Cálculos
- Estatísticas
- Gráficos

que são disponíveis na versão atual do programa.


:39.

9 Regressâo L Regressa.o 1
t

o c;auss- Marquardt Quasi- Schlossmacher ;3chlossmacher


d Newton Newton rnodificado

DFP
,.:.,

s BFGS

[
,_
,i
Gauss- Marquardt DFP L original L modificado
Newton BFGS

s ANOVA
t
a, I e Parametros
t
í, t1at Var/Covar
s
t1at Correlaçã.o
e Análise dos resíduos
s Pressuposições

g
r
6.
f Resíduos

Função
o
s
90.
3.4.2. Descrição dos Cálculos

3.4.2.1 Método de GAUSS-NEWTON

Passo Sequencia de cálculos expressão/seção pg


1 Jacobiano [28] '")'"7
L. 1

2 SEN [a] 28
3 Solução do SEN [31] 28
4 Atualiza paràmetros [32] 28
5 Critério de convergência [25] ou [26] 25
6 SQRes [38] 32
7 Verifica mínimo estacionário 2.12.3 26
8 volta ao passo 1 - -

Fatos
No cálculo do Jacobiano, tem -se

- Modelo da biblioteca as derivadas são


fornecidas analiticamente, e o programa
calcula o valor numérico ;
Modelo do usuário : as derivadas são aproxi-
madas numericamente, através da expressão :

f('M. ; e k + h) - /(% ; e k )
a l [122]
a t\
8
para k = 1, L.
°, _ _ • , p e h - 10- -.. podendo ser alterado
pelo usuário.
tfo cálculo do Sistema de Equações Normais
(SEN) tem-se que calcular � = Z'Z l) - e Ç
O segmento a seguir mostra como calcular esses produtos sem
ter Z' explicitamente (truque necessário para se econo-
mizar" memória no computador)
91.

FOR I = 1 TO número de parâmetros


FOR J - I TO número de parâmetros
FOR K = 1 TO número de observações
A[I, J] = A[I, J] + Z[K. I] *
Z[K, J]
I F I tt J THEN A [J , I] = A [I , J]
NEXT K
NEXT J
NEXT I
FOR J = 1 TO número de parâmetros
FOR I = 1 TO número de observações
C[J] = c[J] + Z[I,J] *
W[I] ! e - �, (Y - f)
NEXT I
NEXT J

Na solução do Sistema de Equações Normais


(SEN), usa-se a Inversa Generalizada Condicional (IEMMA
(1988)), GODOI (comunicação pessoal) posto que o SEN pode
ser singular ou numericamente singular (problemas mal
condicionados). Versões futuras deverão implementar a
Inversa de Moore-Penrose, que é sabidamente melhor que a
Inversa Condicional (IEMMA (1988)).
.::. .
9,,

3,4,2,2, Método de MARQUARDT

Passo Seouência de cálculos expressão/seção pg


u
-
- o
1 - 10-
3
À
u - -
SQRes -
- SQTo

r,
.::. Jacobiano [28] 27
3 SEN - -
4 Solução do SEN [42] 33
5 SQResu + :1 [38] 32
6 Se SQResu + 1. < SQRes u - -

6.a então vá para o passo 7 - -


6.b senão incremente À e - -
volte ao passo 3
,...,
1 Atualiza parâmetros [43] 34
8 Critério de convergência [25] ou [26] 25
9 Verifica mínimo estacionário 2.12.3 26
10 À = À / 10 -
u+ 1. u

11 u
- 1
u + - -
12 volta ao passo .::. - -

Alguns detalhes da montagem parcial do SEN


podem ser encontradas na seção 3.4.2.1 . . Para concluir a
montagem do SEN de Marquardt, não é necessária a matriz ÃO
o artifício utilizado consiste em somar diretamente o valor
de À aos elementos da diagonal de A = Z'Z .

3,4.2.3, Métodos QUASI-NEWTON

O procedimento completo e detalhado está


apresentado na seção 2.16.3.
-, r,
,:JC).

3.4.2.4. Método de SCHLOSSMACHER Original

:J procedimento complet.o está na E::eç:ào 2. 31. 2.


A fim de tornar procedimento mais
computacional, usou-se a expressão [121} como a seguir :
-1
8
-u+-1
-
- 0
~u
-+- (Z'ID-1/
u u
2 ID -1/2
u
z,_, + À
u
11 )

e:'.' - 1,,- 2 - 1/ 2 'i - '-'


u
ID
u
ID
u
i
\~ [ [123]

onde
-1/ 2 -
ID
kk
se 1 � [124]
y/11\ 1
ou
-1, 2 --
ID
kk
(J se 1 � [125]

e o e armazenado na matriz e
u
é armazenado no vetor (X - [ ).

Considere
r,
.u
E y j
+ = r,
[126]
t.=1
\,

n
u+1
E y f 1. Ru+1 [127]
1.=1

então o critério de convergência é dado por

1 Ru - Ru+1 < e [128]

onde e é um limite de erro dado pelo usuário.


Ocorre que nem sempre se obtém o critério de
convergência em iterações consecutivas. Dessa forma, o
critério foi modificado para

1 Rm - Ru+1 , e [129]

onde Rm é a menor Ru obtida.

Se R·.-1+1 < Rm e R - R,.l+1 1 < e então


Rm = Ru+1e o processo continua até que [129] seja
satisfeita.
3.4.2.5. Método de SCHLOSSMACHER Modificado

Verificou-se empiricamente que se a expressão


[124] for substituída por :

1 6
se 1 1\ > 10- [130]
II\ 1
mantidas as demais considerações. o processo converge mais
rapidamente. Embora não se prove teoricamente a
convergência, na prática o processo tem se mostrado
satisfatório.

3.4.3. Descrição das Estatísticas

3.4.3.t. Análise de Variâncias (ANOVA)

Usa-se a análise usual (seção 2.23.), com duas


restrições
- Se SQRegr < O então SQRegr - O
Se SQRes - O ~ o�QRes - 10-:1º
entao

A primeira é considerando que


justificada
longe da solução Q , a SQRes e maior que a SQTo gerando
SQRegr < O , o que invalidaria a ANOVA.
A segunda deve-se ao fato de que o usuário
pode necessitar resolver um problema exato ou um problema de
geometria analítica, como por exemplo na estimativa do valor
inicial �o (seção 2.21. ). Nesse caso SQRes = O implicando em
F-. ro (divisão por 0).
85.

3.4.3.2. Intervalo de Confiança dos Parâme­


l.ros

Usa-se a sugestão de DONALDSON & SCHNABEL


(1987), descrita na seção 2.25.
Para o cálculo do intervalo, usa-se 2 vetores
de forma que o primeiro guarde o limite inferior e o segundo
o limite superior.
O valor "t de Student" é pesquisado em tabela
armazenada na memória do computador; valores que não constam
da tabela são obtidos por interpolação harmônica, isto é :

gl t Sludent

n
2 2
n ? t
n
,.
de onde

( t- t ) ( -- ]
1 - 1
2 n
t - t2 +
2

1 [131]
n n2

sendo que os extremos corresponde m a valores tabelados.

Variâncias/Covariâncias
dos Parâmetros

Usou-se a sugestão de DRAPER & SMITH (1981),


dada pelas equações [78] ou [79] , definidas na seção 2.24.
É utilizado um arquivo texto para sua
apresentação.
96.

3.4.3.4. Matriz de Correlação dos Parâmetros

Usou-se a definição de DRAPER & SMITH (1981),


dada pela expressão [81].
Utilizou-se um arquivo texto para sua
apresentação.

3.4.3.5. Análise dos Resíduos

Usou-se um arquivo texto que contém uma tabela


como abaixo

diag(IP)

onde

'!. são os valores observados da variável


dependente
'!. são os valores estimados para a variável
dependente
e é a estimativa dos erros
e
~N
é estimativa normalizada dos
a erros
(expressão [85])
diag(IP) são os elementos da diagonal da matriz
de projeção (seção 2.28).

Deve ser ressaltado que "observações que


excedem seu valor crítico, são seguidos de um '* ,
(equação [86] e seção 2.28.).
97.
3.4.3.6. Verificação das Pressuposições do
Modelo

São testadas as seguintes hipóteses :


Aleatoriedade dos Erros : teste de Chorri-
lhos (seção 2.27.2.1.)
Normalidade dos Erros teste de Lilliefors
(seção 2.27.2.2.)
- Outras estatísticas da normalidade (seção
2.27.2.3.)
Média
Mediana
Variância
Assimetria
Curtose
- Homo/Heterocedasticidade
Teste de ANSCOMBE (seção 2.27.2.4.)
Teste de COOK & WEISBERG (seção 2.27.2.5.)

É conveniente ressaltar que o programa calcula


essas estatísticas usando as definições apresentadas na
seção 2.27.2.
Os resultados são apresentados usando um
arquivo texto.

3.4, 4. Grá:ficos

Utilizou-se a biblioteca gráfica CLBC para


Clipper 5.0 que utiliza algumas subrotinas em C.

3,4.4.1. Gráficos dos Resíduos Normalizados

bem sabido que deve-se plotar os resíduos


É

colocando no eixo das abscissas o valor de 'f, e no eixo das


ordenadas o valor de e - o isto é, não há
�N
, pois '!, e~N
correlação entre '!, e e
~N
(seção 2.27. 1. )
98.

O leitor pode comparar o gráfico obtido com


aqueles apresentados na figura 3 e concluir a respeito do
ajuste.

3.4.4.2. Gráficos da Função

Coloca-se em um sistema de coordenadas


cartesianas. os valores x e y observados (variável
independente e variável dependente) representadas por "*", e
os valores calculados de X - /(% ; @) representados por tr I<

Infelizmente o sistema utilizado só permite


fazer gráficos bidimensionais.
No caso da regressão L1 • plota-se ambas as
regressões L2 e L1 em um mesmo gráfico para efeito de
comparações. Nesse caso
- pontos L2 •··
pontos L1
dados
99.

4. DISCUSSÃO E RESULTADOS

4. 1 • Introdução

Entre o resultado matemático e sua


representação aritmética há uma grande lacuna. Ainda hoje
não se conhece um programa de computador capaz de manipular
dados aritméticos de forma matemática.
Considere ,r-g-. ln rr ; cada máquina dará uma
resposta que é dependente do número de algarismos de sua
mantissa (single, double, extend, etc ... ), do tipo de
operação interna (Binário. Hexadecimal, Binário codificado
em decimal, etc... ), dos tipos de aproximação para as
operações (expansão em série para funções trigonométricas e
transcendentes, algoritmos especiais, etc ... ), etc...
O caso ainda se torna mais grave quando
ocorrem operações não definidas em um particular conjunto
solução. Tais operações "impróprias tem significado
bastante conhecido em outros conjuntos ( ex X/O só tem
sentido no limite, Y-5 só tem resposta no conjunto dos
complexos, etc ... )
Cada programa apresenta uma resposta diferente
a essas "anomalias".
Para tentar resolver esses problemas, o
"Institute of Electrical and Electronics Enginners", IEEE,
propõe em 1984 algumas regras, descritas em "IEEE PROPOSAL
?OR HANDLING MATH EXCEPTIONS". definindo dessa forma uma
estratégia para solucionar essas anomalias'.
Assim . dentre outras. define-se

\j
-1-nf
Ci
i,;
l\JaN \ Not é\. Num·oer <:)U não é número )

3en \ inf) - t-lat�

� = t1aN ,se o modo atualmente definido


é real)
Uma descrição mais completa do padrão pode ser
encontrada em 'HP7l Reference Manual". 1984. páginas 338
345.
É conveniente re1:::sa1. t,ar ,:i_ue ,:) programa não
"aborta" se ocorre um erro "tratável". mas con-tinua a
execução com as regras adotadas.

Exemplos

2 * NaN = NaN � -,r-::;-. inf = inf ; inf - inf = NaN ; etc ...

Infelizmente não s e encontrou na versão 5.0 do


Clipper esse padrão tão útii�
Espera-se também algoritmos mais eficientes,
capazes de manipular em sua forma original
Números racionais, irracionais e transcen­
dentes
Expansão, compressão e simplificação de
2 2 2
literais (ex : (a + b) - a + 2ab + b )
Cálculo diferencial e integral, com
literais.

Alguns "pacotes" já manipulam algumas


expressões dessa forma (Mathematica, HP48SX), contudo não se
teve acesso a eles.

.
O autor agradece por qualquer informação que leve a
(�) '

utilização do padrão citado.


101.

4.2. Conjuntos de Dados e Modelos Adotados para Análise

4.2.1. Dados e Modelos de SILVA C1978)

Dados símulados

X y
o 36,6
o 'i
,,:.. 53,6
0,4 69,9
0,6 86,2
0,8 101,0
1,0 110,0
1.2 119,0
1,4 128,0
1,6 132,0
1,8 133,0
2,0 131,0
2,2 129,0
2,4 120,0

onde x representa as doses de nutríente utílizado e y a


média dos tratamentos observados.

Modelos propostos

-c<x+b> ] e
Y = a [ 1 - 10 +

2
Y = a + bx + ex + e

2
-C(X+ b > -d<x+b>
Y - a [ 1 - 10 ] . 10 + s
102.
4.2.2. Dados e Modelo de LANDRIANI et alli (1983)

Dados da infusão endovenosa da droga VM26


anticâncer

t y
0,5 1,234
1 2,093
1,5 2,323
2 2,916
2,5 3,364
3 0
� "I
r'7G')
/ ��

4,16 3,570
6 3,875
8 5,009
15 6,012
19 6,998
23 7,542
25 6,51
25,5 6,131
26 6,010
27 5,271
28 4,635
30 3,645
32 3,642
42 1,234
48 0,991

onde t é o tempo em horas após a infusão da droga e Y é a


concentração da droga no sangue.

Modelo proposto

y - - 1] . e
-bt
+ c1
c [
8
kd
- 1] e
-dt
+ e.
103.

onde

{
t se <_
,-, ,1
.C:.'-±

24 se .....
l., :::! 24
e
e -- 2,7182. . .

4.3. Análise dos Dados de SILVA (1978)

Nos quadros 1, 2, 3, 4 e 5 a coluna SAS


(Statistical Analysis System) foi introduzida para se
comparar os resultados obtidos pela Regressão de Minimos
Quadrados \ Lz·) com um padrão aceito internacionalmente
(Procedure NLIN. método DUD). Não se encontrou um padrão
para a Regressão de Desvios Absolutos (L1).
Os resultados apresentados foram obtidos em
computador PC 386, 30 MHz.

4.3.1. Modelo : 1ª Lei de MITSCHERLICH

Partindo das estimativas iniciais fornecidas

l ��� J
pela autora

�o = 0,4

obteve-se os resultados apresentados no Quadro 1.


Para a Regressão de Mínimos Quadr,9.dos, todos
métodos convergiram para a mesma estimativa, embora com
tempo de execução e número de iterações distintos.
A análise de resíduos mostra que os erros não
tem distribuição normal, são homocedásticos e tem alguns
pontos influentes e/ou aberrantes.
A discrepância observada para os pontos
influentes deve-se à maneira pela qual são calculadas as
104.

matrizes que formam a matriz de projeçào.


Algumas outras estatísticas. tais como :
Intervalo de confiança dos paràmetros a 95:r;
de probabilidade
Matriz de variãncias/covariáncias assintó­
tica
Matriz de correlação dos parâmetros
também foram fornecidas pelo programa e seus valores são
semelhantes aos obtidos pelo SAS.
Obteve-se também alguns testes sobre as
pressuposições do modelo, que constam de forma resumida no
Quadro 1.
Na Figura b apresenta-se os gráficos das
funções ajustadas.
Para a Regressão de Desvios Absolutos C Lj_ )
considerou-se como limite, 100 iterações. Nesse caso, apenas
a regressão "Lj_ " modificada convergiu. Os resultados estão
no Quadro 1.
Na Figura 6 apresenta-se os gráficos das
funções ajustadas.
Apresenta-se no Anexo 5 os resultados, tais
quais obtidos, pelos Métodos de MARQUARDT e SCHLOSSMACHER
modificado.
O leitor pode verificar que para a regressão
de mínimos quadrados (L2), há no Anexo 5
- Análise de variâncias com teste de hipótese
sobre a validade do modelo.
- Estimativa por ponto dos parâmetros.
- Número de iterações efetuadas.
Coeficientes de determinação e comparação.
- Lambda (constante de Marquardt).
- Norma do vetor correção Cíl GRD tt>
- Intervalo de confiança dos parâmetros a 95%
de probabilidade.
Matriz de variâncias e covariàncias assintó­
ticas.
105.

- Gráfico da função.
- Análise dos resíduos (Y e e normalizado,
diagonal de projeção).
- Gráfico dos resíduos normalizados.
Matriz de correlaçôes dos parâmet.ros (assin­
tótica).
Verificação das pressuposições do modelo
(Aleatoriedade, normalidade, homocedastici­
dade).

Para a regressão de desvios absolutos (L),


1 ·
tem-se
- Resumo da regressão L2 ( mínimos quadrados).
- Estimativas por ponto ( Li e L2 ) .

- E I Y I E I
e 1 (menor e atual).
- Gráficos da função.
MÉTODOS

GAUSS-
MARQUARDT DFP BFGS SA S LI Original LI Modificado
NEWTON
a 136,8929 136,8929 136,8929 136,8929 136,8929 138,1879 138,1875
PARÂMETROS b o,1924 0,1924 0,1924 o,1924 O, 1924 O,1583 0,1583

e 0,5896 0,5896 0,5896 0,5896 0,5896 0,5948 0,5948

SQRes 390 390 390 390 390 429,7385 429,7361

í:: le 1 56,8827 56,8827 56,8827 56,8827 - 53,5331 53,5331


Iterações 14 31 16 17 18 100 97
Tempo (seg) 5,93 23,62 7,58 12,97 - 322,25 343,12

R2 0,969 0,969 0,969 0,969 - - -

F 1300 1300 1300 1300 - - -


Normalidade Não Não Não Não - - -
Ponto Influente 1º 1º - 1 º e 2º - - -
~�

Ponto Aherrante 13 º 13º 13 º 13 º - - -


Homo/Heterocedasticidade Homo Homo Homo Homo - - -
t-'
o
QUADRO l. Resumo das Análises dos Dados de SILVA (1978) Usando a 1 ª Lei de Mitschcrlich O)
107.

Critico la íw,,ü

xri-
l,llj
1,181
1,931
9.01
! i
a,141
Ui
Uíj
Q,ll,
u 9,){ UI l,il l,lt 1, 1 U4
foíàv,l lnatmd11t,
Gauss-Newton Marquardt

Cri!ico da fw,,ü Crfüco da fw,,ü

'llir 'llir
l,ll 1,33 ' 1

1,18 1,U
1,93 1,93
i,8! 1,19
1
a,14 i, 74
u u
Q.451 i,45
i,ll a,11
u g,j( UI l, il l,lí 1,7 U4 u �.34 UI !,ij Ui 1,1 U4
lariiv1l lnatmdnt, luiív,l Jnatpu.iut,

D.F.P. B.F.G.S.

FIGURA 5. Gráficos das regressões L2 para os dados de SILVA (1978) usando a lª Lei
de Mitscherlich.
108.

Critico ü Funçao

x102

1,18
1,93
9,88
y
9,12
S,S7
9,42 I/
9,26
Q,0 9, 4 Q,,a 1,QZ 1, b U 2,
Ull'iável Independente

-1.1 ,,,,,. u
Original

Critico ü Fun;ao

xlt
1,18
1,93
Q,88
y
9,72
9,S7
Q,42 I
/
9,26
Q,Q e,34 0,68 1, 1, ' 1,7 ,,94
Uariivel Inaepend.ente

-1.1 fltlll u

Modificado

FIGURA 6. Gráfico das regressões L1 para os dados de SILVA (1978) usando a 1-ª Lei de
Mitscherlich.
109.
4.3.2. Modelo Parábola

Usando como estimativa inicial

obteve-se os resultados apresentados no Quadro 2.


Para a Regressão de Minimos Quadrados, todos
métodos convergiram para a mesma estimativa, embora com
tempo de execução e número de iterações distintos.
A análise dos resíduos mostra que os erros não
tem distribuição normal, são homocedásticos e tem alguns
pontos influentes.
A discrepância observada para a presença/
ausência de pontos influentes deve-se à maneira pela qual
são calculadas as matrizes que formam a matriz de projeção.
Algumas outras estatísticas, tais como :
- Intervalo de confiança dos parâmetros a 95%
de probabilidade
- Matriz de variàncias/covariàncias
- Matriz de correlação dos parâmetros
também foram fornecidas pelo programa, e seus valores não
puderam ser checados com os valores do SAS, pois para o SAS
a matriz de coeficientes(�'�) é singular.
Obteve-se também alguns testes sobre as
pressuposições do modelo que constam de forma resumida no
Quadro 2.
Na Figura 7 apresentam-se os gráficos das
funções ajustadas.
Para a Regressão de Desvios Absolutos ( L1 )
considerou-se como limite, 100 iterações.
Na Figura 8 apresentam-se os gráficos das
funções ajustadas.
É conveniente ressaltar que o modelo quadrá­
tico, mais simples e linear, se ajustou melhor aos dados que
a 1ª Lei de Mitscherlich.
MÉTODOS

·-

GAUSS-
MARQUARDT DFP BFGS SAS L1 Original L1 Modificado
NEWfON
a 33,9351 33,9351 33,9351 33,9351 33,9351 33,7428 33,0800
PARÂMETROS b 106,7157 106,7157 106,7157 106,7157 106,7157 104,8845 108,4999

e -29,1008 -29,1008 -29,1008 -29,1008 -29,10 08 -27,9936 -29,4999


SQRes 31,9835 31,9835 31,9835 31,9835 31,9835 41,2803 40,5572
, ·-·

I le 1 17,8773 17,8773 17,8773 17,8773 - 17,0797 17,1400


lteraçües 2 3 4 4 2 100 100
Tempo (seg) 0,82 1,32 4,94 5,28 - 412, 11 331,81
R2 0,997 0,997 0,997 0,997 - - -
-· --

F 15900 15900 15900 15900 - - -


·- ------
Normalidade Não Não Não Não - - -
Ponto Influente 1 º e 13º 1º e 13º - - - - -
Ponto Aberrante - - - - - - -
Homo/Heterocedastícidade Homo Homo Homo Homo - - -

�-•
1-'
QUADRO 2. Resumo das Análises dos Dados de SILVA (1978) Usando Parábola o
111.

x1i
1,18
1,114
1,,
:...�,•l
1,114

f
a, 1, i,7'
u, Ul
Q,48 i,48
i,31 i,33+--------------
u 9,H UI l,9' l,l< l,l U4 8,9 9,H UI 1,9' 1,3' 1,7 2,114
foiív1l lndtp1wnt1 foiív,l lndtp1Mnt1
Gauss-Newton Marquardt

Crilico 4i IWll!t

x1i
1,11 1,18

,., ,.,
1,114 1,114

f
9,7' Q,7'
i,U i,U
i,48
a,11 a,11,
u 9,3( UI 1,a2 1,3' 1,7 2.04 U 9,l( l,lt 1,9' 1,3' 1,7 2,114
hriiv,l lndt1twnt, h,iivtl lndtp1w11t1
D.F.P. B.F.G.S.

FIGURA 7. Gráficos das regressões L2 para os dados de SILVA (1978) usando parábola.
112.

Cziàtico ü l'un;ao

xia'
1,33
1,18
1,84
a,,
V
9,7'
uz
Q,47
a,33
Q,0 a, 4 Q,68 1, 1, ' 1, 7 2,
UU'iàvel lndepenliente

-U , .. , .. u
Original

)df
1,33
1,18
1,83
a,as
y
Q,73
0,58
9,43 ., /

9,28
Q,Q 0, 4 0,68 1, l,lb 1, 7 2,
UU'íàvel Independente

-1.1 lllttl L2

Modificado

FIGURA 8. Gráfico das regressões L1 para os dados de SILVA (1978) usando Parábola.
113.
4.3.3. Modelo 2ª Lei de MITSCHERLICH

Partindo das estimativas iniciais fornecidas


pela autora

230
0.43
~o
0.05
0,122

obtem-se os resultados apresentados nos Quadros 3 e 4.


Observando o Quadro 3 (máximo de 25 iterações)
nota-se que os resultados são discrepantes. devido a não
convergência do processo iterativo (o algoritmo de GAUSS-
NEWTON falha com overflow, isto é, alguma operação excede
308
10 ).
Uma observação : o algoritmo DFP diz que con­
verge" na 7ª iteração com SQRes = 717, 4752 ; tal resultado
não é coerente, e assim efetuou-se mais 25 iterações DFP,
obtendo-se :

307,5440
0,2785
0,1774
0,0303

com SQRes - 69,38 e o processo não convergiu.


Na Figura 9 apresenta-se os gráficos das
funções ajustadas para 25 iterações.
No Quadro 4 (máximo de 100 iterações) os
resultados ainda são discrepantes, devido a não convergência
do processo iterativo; naturalmente o algoritmo de GAUSS­
NEWTON falha com overflow·.
Após a "convergência" na 7ª iteração do DFP,
efetuou-se mais 100 iterações DFP (utilizando como � dados
o
do Quadro 4), obtendo-se :
114.

712,4240
0,3227
0,0668
0,0399
com SQRes 37,90 sem haver convergência do processo
iterativo.
Uma tlltima tentativa de 1.000 iterações (por
Marquardt) foi feita, e o processo não convergiu.
Observou-se que aumentando o ntlmero de itera-
ções o parâmetro a cresce indefinidamente, enquanto o
parâmetro e decresce: b e d se mantém praticamente constan­
tes.
Outras tentativas com novos valores iniciais
foram feitas, e nem assim obteve-se convergência.
Na Figura 11 apresenta-se os gráficos das
funções ajustadas para 100 iterações.
É prudente notar que as estatísticas
fornecidas pelo SAS são distintas das obtidas pelo software
apresentado.
Como a Regressão de Mínimos Quadrados (L2) não
converge não tem sentido falar em Regressão (por L1
Schlossmacher), já que a 1ª i teracão
- L1 é uma regressão L2'·
mesmo assim apresenta-se os resultados obtidos nos Quadros 3
e 4.
Os gráficos das regressões .LJ
1
estão nas
Figuras 10 e 12.
O mais curioso e que SILVA (1978) obteve na
convergência

-151,206
0.46
-0,212
0,070

utilizando o Método de HARTLEY (1961).


Partindo-se das e stimativas finais da autora e
usando o Método de GAUSS-NEWTON, o programa converge em 4
115.

iterações. confirmando os resultados da autora: obteve-se


também
- SQRes = 12.9
2
- R = O. 999
- F = 26400
- lQ e 13Q são pontos influentes
Erros não normais
Erros são homocedásticos

dentre outras estatisticas.


A partir dos resultados obtidos. sugere-se que
a 2ª Lei de Mitscherlich deve ser usada com cautela. MAGNANI
t1991) sugere uma reparametrização nesse modelo.
��--·-----•·"�,--�---

MÉTODOS

GAUSS-
MARQUARDT DFP BFGS SAS Ll Original Ll Modificado
NEWfON
a - 243,6887 148,0627 244,8732 260,8949 3620,4625 1949,4039

b - 0,2612 O,1127 0,2596 0,2992 0,3575 0,3742


PARÂMETROS
e - 0,2405 0,6604 0,2375 0,2189 0,0119 0,0220

d - 0,02487 0,0135 0,0249 0,0283 0,0431 0,0404


SQRes - 92,4427 717,4752 94,7190 168,96 36,4886 48,5135

í: le 1 - 29,4410 86,2000 28,2981 - 15,3440 16,4834


Iteraçôes - 25 7 25 25 25 25
lempo (seg) - 30,48 5,22 33,40 - 305,60 280,29
R2 - 0,993 0,943 0,993 - - -

F - 3710 476 3620 - - -


Normalidade - Não Não Não - - -
Ponto Influente - - - - - - -
Ponto Aberrante - - - - - - -
r'
r'
1 lomo/Heterocedasticidade - Homo Homo Homo - - - (J)

QUADRO 3. Resumo das A. ,1álises dos Dados de SILVA (1978) Usando a 2ª Lei de Mitscherlich - Max. 25 Itcraçües
117.
Crüico da f\11\çao

x1g2
1,33
1,18
1.04
u

/
0, 75
9,61
9,47
9,32
Q,9 9,34 9,68 l, l, 3& 1, 7 2,114
Uaz,iivel lniioendente
Marquardt

Crilico da funçao

x1g2

1,18
1,94
9,9
V
8, 75
11,61
8,47
ll,32
0,9 9, 4 9,68 l, 1, 6 1,7 2,94
Vaz,iivel ln<iependente
D.F.P.

Crilico da íwiçao

xlif
1,33
1,18
1,94
e.s,
y
8, 75
0,61
8,46
9,32
u 9,34 0,68 1, 1,36 1, 7 2,94
Uaz,iãvel ln<iependente
B.F.G.S.

FIGURA 9. Gráficos das regressões L2 para os dados de SILVA (1978) usando a 2-ª Lei
de Mitscherlich com 25 iterações.
118.

Crüico ü fonçao

x102
1,33
1,18
l,&4
a,,
ll, 75
ll,61
Q,47
ll,3Z
Q,Q li, 4 11,,a 1, 1, ' 1;1 ,,04
Vuíàvel lnd.ependente

-Ll ,.,,,, L2

Original

Crüico J..i funçà'.o

x1a2
1,33
l,18
l,&4
u,,
y
S,75
9,61
i,47
a,3,
9,9 0, 4 0,48 l, 1., 1,7 ,,
Yuiãvel Independente

-Ll •••••• 1.2

Modificado

FIGURA 1 O. Gráfico das regressões L1 para os dados de SILVA (1978) usando a 2ª Lei
de Mitscherlich com 100 iterações.
a,_ _

MÉTODOS

GAUSS-
MARQUARDT DFP BFGS SAS L1 Original L1 Modificado
NEWTON
a - 456,3067 148,0627 1058,3556 994,0432 36338,4600 2606,0624
b - 0,3060 O,1127 0,3318 0,3275 0,3616 0,3787
PARÂMETROS
e - O,1102 0,6604 0,0437 0,0474 0,0011 0,0163

d - 0,0358 0,0135 0,()422 0,0433 0,0442 0,0408


SQRes - 47,8118 717,4752 33,3604 39,8225 35, 1956 48,2340
í: ie 1 - 21,3668 86,2007 18,3218 - 14,9236 16,3773
Iteraçües - 100 7 100 97 100 100
Tempo (seg) - 67,78 5,22 73,93 - 677,51 1165,46
R2 - 0,996 0,943 0,997 - - -

F - 7180 476 10200 - - -


Normalidade - Não Não Não - - -
Ponto Influente - - - - - - -
Ponto Aberrante - - - - - - - 1--'
1--'
(O
1 fomo/Heterocedastícidade - Homo Homo Homo - - -

QUADRO 4. Resumo cfr · 1 álises dos Dados de SILVA (1978) Usando a 2ª Lei de Mitscherlich - Max. 100 Iterações
120.
Crã!ico da íW1çà:o

x1Q"
1, 33
1.18
1, ll4
a,'
0, 1,
9,62
i,48
I!, 33
Q,i 0,34 0,68 1, 1,36 l, 7 2,94
Ua11íàvel Independente
Marquardt

Ciiã!ico da Jun;ao

xla'
l, 33
1,18
1,IM
9,9
0, 1,
0,62
9,48
9,34
g,e 0, 4 S,68 1, 1,36 t;? 2,94
Uaríàvel Independente
D.F.P.

C!iã!íco di funçàll

x1Q"
1,33
1.18
l,IM
a.,
a, 1,
9,62
8,48
9,34
9,9 0,34 9,68 1, Z 1,36 1;1 2,04
Ua11íàvel Independente
8.F.G.S.

FIGURA 11. Gráficos das regressões L2 para os dados de SILVA (1978) usando a 2-ª Leí
de Mítscherlich com 100 iterações.
121.

Critico tl.l funçao

xl�
1,3,
1,18
1,64
a,,
Q,7'
a,,2
Q,48
9,34
9,S 9, 4 0,68 1, l, & 1, 7 2,
Vuiãvel lnilependente

-1.1 ftllll u
Original

Critico ü fünçao

x10'
1,33
1,18
1,94
a,,
y
9,7'
s,,2
Q,48
Q,34
Q,Q s, 4 Q,U 1, 1, ' 1, 7 2,
Vuiivd lnilependente

-Ll llttf• u

Modificado

FIGURA 12. Gráfico das regressões L1 para os dados de SILVA ( 1978) usando a 2ª Lei
de Mitscherlich com 100 iterações.
122 ..

4.4. Análise dos Dados de LANDRIANI et alli (1983)

Partindo-se aas estimativas iniciais forne­


cidas pelos autores :

0.1
0,3
~o
1
0,1

apenas o SAS consegue convergir para as estimativas finais


dadas pelos autores; o Método BFGS converge para os valores
apresentados no Quadro v • Os demais métodos param com
over[low.
Partindo-se de

0,1
e~o - 0,1
0,1
0,1

chega-se aos resultados apresentados no Quadro 5, onde


nota-se que apenas o Método de GAUSS-NEWTON falha
( over[low).
Para a regressão (Mínimos Quadrados),
apenas o Método BFGS apresenta "resultados discrepantes,
permutando os valores dos parâmetros a com e: e b com ci".
Usando o Método de GAUSS-NEWTON, com as
estimativas iniciais iguais as estimativas finais obtidas
por MARQUARDT. o método converge e confirma as estimativas
obtidas por MARQUARDT.
Da mesma forma. confirma-se os resultados
obtidos para o Método BFGS.
É conveniente ressaltar que graficamente não
se distingue as estimativas obtidas (Figura 13).
Pode-se ver também no Quadro 5 que os erros
não são normais, são homocedásticos e não há pontos
123.

influentes e;ou aberrantes.


i?ara regressão (desvios absolutos), o
processo não convergiu com 100 iteraçóes.
A Figura 14 apresenta os gráficos obtidos para
a função de LANDRIANI et alli (Regressão L1 ).
Nota : Limitou-se a regressão L1 a 100 itera-
ções devido ao tempo dispensado para execução dos cálculos
que foram efetuados em um computador· PC 386, 30 MHz.
MÉTODOS

GAUSS-
MARQUARDT DFP BFGS SAS L1 Original L1 Modificado
NEWTON
a - 2,7148 2,7149 0,5869 2,7139 3,0483 3,0024

b - 1,9121 1,9121 0,0770 1,9121 2,1224 2,0090


PARÂMETROS
e - 0,5869 0,5869 2,7149 0,5869 0,6011 0,5850

d - 0,0770 0,0770 1,9121 0,0770 0,0783 0,07753


SQRes - 2,2618 2,2618 2,2618 2,2618 2,3382 2,3271

I le 1 - 5,8676 5,8676 5,8676 - 5,7017 5,7254


Iterações - 36 116 37 38 100 100
Tempo (seg) - 98,16 544,14 247,38 - 5382,75 6585,73
R2 - 0,971 0,971 0,971 - - -

F - 799 799 799 - - -

Normalidade - Não Não Não - - -


Ponto Influente - Não Não Não - - -
Ponto Aberrante - Não Não Não - - - f-'
N
,r:,.
Homo/líeterocedasticidade - Homo Homo tlomo - - -

QUADRO 5. Resumo,, qlises dos Dados de LANDRIANI ct alli (1983)


125.
Critico di run,ü

i,81
6,84
s, 86
4, 89
Ml ·,
2, 94
1, 96
a, 99
0, e,n 1,4 2, 2,?5 3,42 4,1 x1gl
Vu-iàvel Independente
Marquardt

Critica di íun;ü

7,81
"84
5,86

y
u,
3, 91
2,94
1,96

e, z 1,4 2, 2, 75 3,42 4,1 xlgl


Uu-iàvel Independente
D.F.P.

Crilico da íun;ie

"84
�.86
4,89
3,91
2,94
1,96

0,12 1;4 2, 2,75 3,42


Uu-iàvel lndepen.lente
B.F.G.S.

FIGURA 13. Gráficos das regressões L2 para os dados de LANDRIANI et alii (1983).
126.

6,'2
S, ,3
4,94
y
3,95
Z,"
i,98
ª·"
Q, Q, 2 1;4 Z, 2,75 3,42
Vil'iãvel Independente

-Ll 11 tl li L2

Original

Crático G Fun,ao

7,85
6,87
s,a,
4,'1
y
3, ,3
2,,s
l,97
ª·"Q, Q, 2 1,4 2, 2, S 3,42 x1itl
Vil'iàvel Independente

-Ll lltlJf u

Modificado

FIGURA 14. Gráfico das regressões L1 para os dados de LANDRIANI et alii (1983).
-! r-, r,
.LL. i •

5. CONCLUSÕES E SUGESTÕES PARA OUTRAS PESQUISAS

O sistema proposto para análise de regressão


não-linear. (extensivo aos casos linear e intrinsecamente
linear) tem se mostrado satisfatório, com resultados preci­
sos (conforme observado nos problemas de teste) e relativa
facilidade de uso (por· ser baseado em menus).
Dentre os métodos propostos para a Regressão
de Mínimos Quadrados ( L2 ) . a saber GAUSS-NEWTON,
MARQUARDT, DFP, BFGS, apenas o Método de GAUSS-NEWTON deve
ser usado com cautela, pois é numericamente instável.
Não se pode afirmar que para regressão não­
linear exista um método melhor (de ajuste) que outro, e
sugere-se que cada caso deve ser tratado isoladamente.
Apresenta-se também algumas inovações tais
como a análise dos resíduos e os testes sobre as pressupo-
sições dos modelos, que permitem ao estatístico concluir
sobre a adequação ou não do conjunto modelo/dados.
Quanto a Regressão de Desvios Absolutos ( L:1 )
não se dispõe de um pacote para checar sua precisão; usou-se
para isso alguns exemplos da literatura, extraídos de KARST
(1958) e STANGENHAUS (1988); o pacote aqui apresentado,
reproduziu as estimativas obtida s pelos autores (caso linear
apenas).
Para outras pesquisas sugere-se
- A implementação do Método Híbrido de Xü
- O estudo e a implementação de regressões com
restrição nos parâmetros.
6. REFERtNCIAS BIBLIOGRÁFICAS

ABRAMOWITZ. M. & STEGUN. 1. A. . ea. .Handbook of mathematical


f unct.ions. Washington, t�at ional Bureau of :3tandards,
1972. 1046p. (Applied Mathematics ser., 55).

AL-BAALI, M. Methods for nonlinear least squares. Dundee,


1984. 115p. (Ph-D. - University of Dundee).

ANSCOMBE. F.J. Examination of residuals. ln: BERKELEY


SYMPOSIUM OF MATHEMATICAL STATISTCS AND PROBABILITY, 4.,
Berkeley, 1960. Proceedings. Berkeley, University of
California. 1961. V.1, p.1-36.

ARMSTRONG, R.D. & FROME, E.L. A comparison of two


algorithms for absolute deviation curve fitting. JASA,
Boston. 71 (354): 328-30, 1976.

BARD. Y. .Honl inear parameter estimation. New York .


Academic Press, 1974. 341p.

BATES, D. M. & WATTS, D. G. Nonl inear regression anal ysis and


its applications. New York, John Wiley, 1988. 364p.

BAZARAA. M.S. & SHETTY. C.M. Nonlinear programm:i.ng theory


and algorithms. New York. John Wiley, 1979. 560p.
129.
BEALE. E.M.L. Confidence regions in nonlinear estimation.
Journal of the Royal Statistical Society. 3er.B. London,
22: 41-76, 1960.

BOOTH, G.W.: BOX, G.E.P.; MULLER. M.E.; PETERSON. T.I. Fore


casting by generalized regression TI�thods, nonlinear
estimation. s.l.. IBM Corp.. 1959. n.p. C IBM Share
Program, 687 WLNLl. ).

BOX, G.E.P. & MULLER. M.E. A note on the generation of


random normal deviates. Annals o:f Mathematical
Statistics, Ann Arbor. 29: 610-1. 1958.

BRODLIE, K.W. Unconstrained minimization. ln: JACOBS. D.,


ed. The state of the art in numerical analysis. New
York, Academic Press, 1977. cap.3, p.229-68.

BROYDEN, C.G. A class of methods for solving nonlinear


simultaneous equations. Mathematics of Computati.on,
Menasha, 19: 577-93, 1965.

BROYDEN, C.G. Quasi-newton methods and their application to


function minimization. Mathematics of Computati.on,
Menasha, 21: 368-81, 1967.

BROYDEN, C.G. The convergence or a class of double-rank


minimization algorithms. Journal of the Institute of
Mathematics its Applications� London, 6: 76-90, 222-31,
1970.

CAMPOS. H. Estatística experimental não-paramétrica. 4.ed.


Piracicaba. ESALQ. 1983. 349p.

CHIACCHIO, E.J. Avalia-String: um interpretador de fórmu­


las. Piracicaba, ESALQ/Depto. Mat. Estat., 1990. 38p.
130.
CHIACCHIO. E.J. Um algoritmo para estimativa de mínimos
quadrados de parâmetros não-lineares. Piracicaba. ESALGí
Depto. Matem. Estat .. 1991. 60p.

COOK. R.D. & WEISBERG. S.• colab. Residuais a.nd influence


in regression. New York, Chapman and Hall, 1982. 230p.
(Monographs on Statistics and Applied Probability).

COOK, R.D. & WEISBERG. Diagnostics for


heteroscedasticity in regression. Bio:metrika, Cambridge,
70 (1): 1-10, 1983.

CORTARELLI, A. Estudo da curva de crescimento de machos de


raça nelore, através de quatro modelos estocâsticos.
Jaboticabal, 1973. 179p. (Doutorado Faculdades
Médica, Veterinâria e Agrícola de Jaboticabal/UNESP).

CURRY, H.B. The method of steepest descent for non-linear


minimization problems. Quarterly Applied Mathematics,
Providence. 2: 258-61, 1944.

DAVIDON. W.C. Variable metric method for minimi.zation.


s.l., AEC, 1959. (A.E.e. Research and Development Report
ANL, 5990).

DAVIS, D.S. Nornografhy and empírica! equations. New York,


Reinhold Publ.• 1943.

DENNIS JR .. J.E. Some computational techniques for the


nonlinear least squares problem. In: BYRNE, G.D. &
HALL. C. A., ed. Numerical solution of· systems o:f
nonlinear equations. New York, Academic Press, 1973.

DENNIS JR., J.E. & SCHNABEL, R.B. Numerical methods for


unconstrained optimization and nonlinear equations.
Englewood Clifs. Prentice Hall, 1983. 378p.
131.

DENNIS JR.. ,J.E.: GAY. D.M.: WELSCH. R.E. An adaptive


nonlinear least squares algorithm. ACM Transact.ions on
Mathematícal Software, New York, 7: 348-68, 1981.

DIELMAN. T. ,S,, PFAFFENBERGER. R. LAV (Least Absolute Valuel


estimation in the regression model a review. TIMS
Studies in the Management Sciences, Providence, 19:
31-52, 1982.

DONALDSON, J.R. & SCHNABEL. R.B. Computacional experience


with confidence regions and confidence intervals for
nonlinear least squares. Techn.omet.rics, Richmond, 29(1):
67-82, 1987.

DRAPER, N.R. & SMITH. H. Applied regression analysis, New


York, John Wiley, 1966. 407p.

DRAPER, N.R. & SMITH, H. Applied regression analysis.


2.ed. New York, John Wiley, 1981. 710p.

FELTRIN. M.A.V. A análise harmônica no estudo das


precipitações pluviais no município de Bandeirantes. PR.
Piracicaba, 1980. 102p. (Mestrado - Escola Superior de
Agricultura "Luiz de Queiroz"/USP).

FIGUEIRf:DO. G. C. Teste baseado no número total de


chorrilhos. Piracicaba, ESALQ/Depto. Matem. Estatíst.,
1977. lOp.

FIGUEIRôA, M.L. Inferência sobre parâmetros da função de


Cobb-Douglas. Piracicaba, 1986. 127p. (Doutorado
Escola Superior de Agricultura "Luiz de Queiroz"/USP).
132.

FLANAGAN. P.D.; VITALE. P.A.; MENDELSOHN. J_ A numerical


investigation of severa� one-dimensional search
procedures in nonlinear regression problems.
Technometrics, Richmond. 11(2): 265-84. 1969.

FLETCHER, R. A new approach to variable metric algorithms.


The Computer Journal, London, 13: 317-22. 1970.

FLETCHER. R. A modified Marquardt. subrot.ine for nonlinear


l east. squares. London, A.E.R.E .. 1971. n.p. (A.E.R.E.
Harwell Report AERE. R 6799).

FLETCHER, R. Pract.i.cal met.hods of· optimization. 2.ed. New


York, John Wiley. 1987. 436p.

FLETCHER, R. & POWELL, M.J.D. A rapidly convergent descent


method for minimization. Computer Journal, London, 6:
163-8, 1963.

GALLANT, A.R. Nonlinear statistical models. New York, John


Wiley, 1987. 610p.

GILL, P.E. & MURRAY, W. Quasi-Newton methods for


unconstrained optimization. Journal of the Instit.ute of
Mat.hematics its Appli.cations, London. 9: 91-108, 1972.

GOLDFARB. D. A family of variable metric methods derived by


variational means. Mat.hematics of Comput.ati.on, Menasha,
24: 23-6, 1970.

GUTTMAN, I. & MEETER. D.A. On Beale·s measures of


nonlinearity. Technomet.rics, Richmond, 7: 623-37, 1965.

HARTLEY. H.O. The estimation of non-linear parameters by


internal least squares. Biometrika. Ser 1. Cambridge,
35: 32-45, 1948.
133.

HARTLEY. H.O. The modified Gauss-Newton method for the


fitting of nonlinear regression function by least
squares. Technometrics. Richmond, 3: 269-80, 1961.

HARTLEY, H.O. Exact confidence regions for the parameters


in nonlinear regression law. Biomet.rika, Cambridge, 51:
347-53. 1964.

HARTLEY. H.O. & BROOKER, A. Non-linear least squares


estimations. Annals of Mathematical Stat-istics, Ann
Arbor, 36: 638-50. 1965.

HEWLETT PACKARD. CO. Curve :fit..t..ing pac ow:ner's manual :for


t.he HP-71. Corvallis, 1984a. 125p.

HEWLETT PACKARD, CO. HP-71 Reference manual• 3.ed.


Corvallis, 1984b. 417p.

HEWLETT PACKARD. CO. HP-48SX owners manual. Corvallis,


1989. pt.1.

HOFFMANN, R. & VIEIRA. S. Análise de regressão. 2.ed. w.


r,

Paulo, Hucitec; EDUSP, 1987. 379p.

IEMMA, A.F. Matrizes para estatística; um texto para


profissionais de ciências aplicadas. Piracicaba, ESALQ/
Depto. Matem. Estat., 1990. 339p.

,JOHNSON. E. E. Empirical equations for approximat ing tabular


F values. Technomet.rics, Richmond, 15(2): 379-84. 1973.

KARST, O.J. Linear curve fitting using least deviations.


JASA, Boston, 53: 118-32, 1958.

KENNEDY JR., W.J. & GENTLE, J.E. Statistical computing.


New York, Marcel Dekker, 1980.
134.

KNUTH. D. Semi-numerical algorithms. In: The


art of computer programming. Redwood City. Addison
Wesley, 1969. v.2. sect. 3.4.4.

KOLB, W.M. Curve fi tting for programmable cal cui ators.


Bowie. 1982. 127p.

LANDRIANI, G. S. ; GUARDABASSO, V. ; ROCCHETTI. t1. t�L-FIT: a


microcomputer progr·am for non-linear fitting. Computer
Programs in Biomedicine, Amsterdan, 16: 35-42, 1983.

LEVENBERG. K. A method for the


solution of certain
nonlinear problems in least squares. Quarterly Applied
Mathematics� Providence, 2: 164-8, 1944.

MACHADO. A.A. Modelos lineares. Piracicaba. s.ed., 1991.


275p.

MAGNANI. R. Alguns aspectos da aplicação da segunda Lei de


Mitscherlich e da equação de regressão quadrática à
maturação da cana-de-açucar. Piracicaba. 1985. 73p.
(Mestrado - Escola Superior de Agricultura "Luiz de
Queiroz" /USP).

MAGNANI. R. Avaliação de propriedades estatisticas da


segunda Lei de Mitscherlich. Piracicaba, 1991. 152p.
(Doutorado - Escola Superior de Agricultura "Luiz de
Queiroz" /USP) .

MARQUARDT, D.W. An algorithm for least squares estimation


of nonl inear parameters. Journa1 Society for Industrial
and Applied Mathematics� Philadelphia, 11(2): 431-41.
1963.
MELO. �.I.O. Aplicação do m�todo modificado de Gass-Newton
p,ara est ima:c os paràmetros da equaçào de Mitscher lich.
Piracicaba. 1976. !Mestrado - Escola Superior ae
Agricultura 'Luiz de 0ueiroz ';USP).

MIRSHAWKA. V. Probabilidades e e:stat.istica para engenharia.


São Paulo. Nobel. 1983. v.2. �83p.

t�ARULA. 3. C. ;�, STANGENHAUS. G. Análise de regressão L


São Paulo. IMPA. 1988. n / f-' w

t-JETER. ,_:;. ,x WA:3SERMAN. W. Applied linear st.at.istical models,


r-egressi. on, anal ysi s oi: variance and experi1nental
designs. [fomewood, Richard D. Ir·win, 1974. i342p ..

POLAK. E. Computational methods in optimization: a unified


approach. New York, Academic Press. 1971.

POWELL. M.J.D. A hybrid method for nonlinear equations.


ln: RABINOWITZ, P. , ed. Numeri.cal :methods í or nonlinear
algebraic equations. London. Gordon and Breach. 1970.

PRUNTY. L. Curve fitting wit.h


smooth functions that are
piecewise-linear in the limit. Biometrics, Washington.
39: 857-66. 1983.

QUINTELA. L.A. & PIMENTEL. M.S.L. Clipper com linguagem e.


São Paulo. M. Graw-Hill. 1990. Blp.

RATKOWSKY. D. A. Nonl inear regression model1 ing. t�ew York,


Marcel Dekker. 1983. 276-p.

REYES, A.E.L. & CHIACCHIO, E. J. Sistema para análise de


regressão - manual do usuário. CIAGRI/USP. No Prelo.
136.

SAS INSTITUTE INC. SAS user's guide: statistics Proc. NLIN.


5.ed. Cary, 1985. cap.25. p.575-606.

SCHLOSSMACHER. E.J. An iterative technique for absolute


deviations curve fitting. JASA, Boston, 68(344): 857-9.
1973.

SEAL. H.L. The historical development of the Gauss linear


model. Biometrika, Cambridge. 54: 1-24. 1967.

:3EBER, G. A. F. & WILD. C. J. Nonl inear regression. New York.


John Wiley, 1989. 768p.

SHANNO, D.F. Conditioning of Quasi-Newton methods for


function minimization. Mathematics on Computation,
Menasha, 24: 647-56, 1970.

SILVA. M.A.P. Segunda aproximação de Mitscherlich aplicada


à adubação mineral. Piracicaba, 1978. 96p. (Mestrado -
Escola Superior de Agricultura "Luiz de Queiroz"/USP).

SILVA. M.A.P. Métodos de estimação dos parâmetros do


2
modelo Y= A( 1-10-cx) .10-kx+ aplicado a dados de
maturação da cana-de-açucar. Piracicaba, 1980. 85p.
(Doutorado - Escola Superior de Agricultura "Luiz de
Queiroz"/USP).

SILVEIRA JR., P. Estudo de alguns modelos exponenciais no


crescimento de bovinos da raça Ibagé. Piracicaba, 1976.
174p. (Mestrado - Escola Superior de Agricultura "Luiz
de Queiroz"/USP).

SMITH, F.B. ,'s.. SHANNO, D. F. An improved Marquardt procedure


for nonlinear regressions. Technomet.rics, Richmond, 13:
63-74, 1971.
137.

SOFTCAD INFORMATICA. Clipper com gráficos usando CLBC. ºªº


r,~

Paulo. Livros Técnicos e Científicos. 1991. l87p.

SPENCE. R. Clipper 5.0 release s.01. São Paulo. Makron


Books. 1991. 767p.

TABATA. T. & ITO. R.


Effective c:,reatment of the
interpolation factor in Marquarctt·s non-linear least
squares fit algorithm. The Computer Journal, London, 18:
250-1. 1975.

TISHLER. A. & ZANG. I. An absolute deviations curve-fitting


algorithm for nonlinear models. TIMS Studies in the
Management Sciencies, Providence. 19: 81-103, 1982.

TURNER. M.E.; MONROE. R.S.; LUCAS, H.L. Generalized


asymptotic regression and nonlinear data analysis.
Biometrics, Washington, 17: 120-43, 1961.

UDO, M.C.T. Estudo de funções que se ajustam à maturação da


cana-de-açucar. Piracicaba, 1983. 74p. (Mestrado
Escola Superior de Agricultura "Luiz de Queiroz"/USP).

VESPUCCI, M.T. An efficient cede for minimization of highly


nonlinear and large residual least squares functions.
Optmization, Berlin, 18(6): 825-55, 1987.

VITALE. P. & TAYLOR G. A note on the application of


Davidon·s method to
nonlinear regression problems.
Technometrics, Richmond, 10(4): 843-9, 1968.

WAGNER. H. M. Linear prograrnrning techniques for regression


analysis. JASA, Boston, 54: 206-12. 1959.

WOLFRAM RESEARCH INC. MATHEMATICA; a system


for doing
mathematics by computer. BYTE, Perterborough, Aug. 1990.
138.

XU. C. Hybrid methods for nonlinear least squares and


related problems. Dundee. 1386. 205p. tPh-D.
University of Dundee).
l.39.
ANEXO 1. Lí:mites Superiores para o Teste de LILLIEFORS,
e ex = o, 05)

3
n 10 • D
4 381
5 337
G 319
7 300
8 285
9 271
10 258
11 249
12 242
13 234
14 227
15 220
16 213
17 206
18 200
19 195
20 190
21 186
22 182
23 179
24 176
25 173
26 170
27 168
28 166
29 164
30 161
> 30 886/-./n"°
Fonte CAMPOS (1983)
140.
2
ANEXO 2. Limites da Distribuição de X C� = 0,05)

2 2
gl 10 -X
1 384
2 599
3 781
4 949
5 1107
6 1259
7 1407
8 1551
9 1692
10 1831
11 1968
" 0
..L.é. 2103
13 2236
14 2368
15 2500
16 2630
17 2759
18 2887
19 3014
20 3141
21 3267
22 3392
23 3517
24 3642
25 3765
26 3889
27 4011
28 4134
29 4256
30 4377
40 5576
50 6750
60 7908
70 9053
80 10188
90 11314
100 12434
Fonte CAMPOS (1983)
141.
ANEXO 3. Limites da Distribuição Bilateral t de Student
C .x = o, 05)

2
gl 10 . t.
l 1271
1;
.:. 430
r,
0 318
4 278
5 257
6 245
7 �36
8 231
9 226
10 r,r;
.L.w0
'l-

11 220
12 218
13 216
14 :214
15 213
16 212
17 211
18 210
19 209
20 209
21 208
22 207
23 207
24 206
25 206
26 206
27 205
28 205
29 205
30 204
50 201
100 198
a) 196
Fonte MOSTELLER (1983)
142.
ANEXO 4. Limites Críticos de r para o Teste de CHORRILHOS
(O< = o, 05)

ma.x
m .n1.
1.. .
n2 .
n
5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
- - - - - - - 2 2 2 r, 2 2 r,,:_, 2 2 r inf
2 - - - - - - - 6 6 6 6 6 6 6 6 6
,:_,

r sup
- r, r,
2 r,
2 2 2 2 2 3 3 3 3 3 3
3 -
,:_, ,:_, ,:_,

8 8 8 8 8 8 8 8 8 8 8 8 8 8 8
4 2 2 2 3 3 3 3 3 3 3 3 4 4 4 4 4
9 9 10 10 10 10 10 10 10 10 10 10 10 10 10 10
2 3 3 3 3 3 4 4 4 4 4 4 4 5 5 5
5 10 10 12 12 12 12 12
11 11 12 12 12 12 1 2 12 12
- 3 3 3 4 4 4 4 5 5 5 5 5 5 6 6
6 - 11 12 12 13 13 13 13 1 4 14 14 14 14 14 14 14
- - 3 4 4 5 5 5 5 5 6 6 6 6 6 6
7 - - 13 13 14 14 14 14 1 5 15 15 16 16 16 16 16
- - - 4 5 5 5 6 6 6 6 6 7 7 7 7
8 - - - 14 14 15 15 16 1 6 16 16 17 17 17 17 17
- - - - 5 5 6 6 6 7 7 7 7 8 8 8
9 - - - - 15 16 16 16 17 17 18 18 18 18 18 18
- - - - - 6 6 7 7 7 7 8 8 8 8 9
10 - - - - - 16 17 17 1 8 18 18 19 19 19 20 20
- - - - - - 7 7 7 8 8 8 9 9 9 9
11 - - - - - - 17 18 19 19 19 20 20 20 21 21
- - - - - - - 7 8 8 8 9 9 9 10 10
12 - - - - - - - 19 1 9 20 20 21 21 21 22 22
- - - - - - - - 8 9 9 9 10 10 10 10
13 - - - - -
- - - 2 0 20 21 21 22 22 23 23
- - - - - - - - - 9 9 10 10 10 11 11
14 - - - - - - - - - 21 22 22 23 23 23 24
- - - - - - - - - - 10 10 11 11 11 12
15 - - - - - - - - - - 22 23 23 24 24 25
- - - - - - - - - - - 11 11 11 12 12
16 - - - - - - - - - - - 23 24 25 25 2b
- - - - - - - - - - - - 11 12 12 13
17 - - - - - - - - - - - - 25 25 26 26
- - - - - - - - - - - - - 12 13 13
18 - - - - - - - - - - - - - 26 26 27
- - - - - - - - - - - - - - 13 13
19 - - - - - - - - - - - - - - 27 27
- - - - - - - - - - - - - - - 14
20 - - - - - - - - - - - - - - - 28
Fonte FIGUEIREDO (1977)
143.

ANEXO 5. Resultados Obtidos pelo Método de MARQUARDT e


SCHLOSSMACHER Modificado para os Dados de SILVA
(1978) Usando a 1ª Lei d e Mitscherlich
144.
PARAMETROS A N A V A
Estimativas
a: +1.368E+02 CV GL SQ QM
b: +1.924E-01
e: +5.896E-01 Regressao 003 +1.52E+05 +5.07E+04 +1.30E+03
Resíduo 010 +3.90E+02 +3.90E+01

Total 013 +1.52E+05


Tot.Corrigido +1.26E+04

lteracao: 031 1 1 GRD 1 1 = +4. 5508E-11


R'= 0.969 RR= 0.963 Lambda= +1E-10

Teste de Hipotese
Probabilidade> F : +3.330E-04
H1: M odelo adequado !!

Convergiu ! !
T�o (seg) : 40.64

+-----------------------------+
: Par. Valor :
:--··········-----------------:
: a 136.89291562457 :
i b 0.19241043011 l
: e 0.58967930512 :
1 1
1 1
1 1
1 1
1 1
1 1
+-----------------------------+
145.

Intervalos de Confianca dos Parametros

Parametro Lim.Inferior Estimativa Lim.Superior

a +1.25318E+02 +1.36892E+02 +1.48467E+02


b +6.65723E·02 +1.92410E·01 +3.18248E-01
c +3.76805E·Oi +5.89679E·01 +8.02553E·01

Fim de Arquivo

Matriz de correlacoes

Par. a b c
a +1.00E+OO +5.63E·01 ·8.7iE·01
b +5.63E·01 +i.OOE+OO ·8.i3E·01
e ·8.71E·01 ·8.13E·01 +1.00E+OO
Fim de Arquivo

Matriz de variancias e covariancias

Par. a b c
a +2 .69E+01 +1.65E·01 ·4.32E·01
b +1.65E·Oi +3.19E-03 -4.38E·03
c ·4.32E-01 ·4.38E-03 +9.12E·03
Fim de Arquivo

Analise de Resíduos

y y e Erro Norm. Oiag.Projecao

+3.66E+01 +3.14E+01 +5.12E+OO 0.82 +7.58E-01"


+5.36E+01 +5.65E+01 ·2.94E+OO -0.47 +2.59E·01
+6.99E+01 +7.56E+01 -5.?SE+OO -0.92 +2.12E·Oi
+8.62E+01 +9.02E+Oi ·4.01E+OO -0.64 +2.20E·01
+1.01E+02 +1.01E+02 ·3.15E·Oi ·O.OS +2.01E·01
+1.10E+02 +i.09E+02 +2.24E-01 0.04 +1.62E·01
+1.19E+02 +1.16E+02 +2.77E+OO 0.44 +1.26E-01
+1.28E+02 +1.21E+02 +6.86E+OO 1.10 +1.08E·01
+1.32E+02 +1.24E+02 +7.11E+OO i.14 +1.13E-01
+1.33E+02 +1.27E+02 +5.25E+OO 0.84 +1.39E-01
+1.31E+02 +1.29E+02 +1.08E+OO 0.17 +1.80E·01
+1.29E+02 +1.31E+02 -2.S?E+OO -0.41 +2.31E·01
+1.20E+02 +1.32E+02 ·1.28E+01 -2.06* +2.85E-01

Nota: * na coluna Erro Normalizado possível ponto aberrante {outliers)


* na coluna da Oiag.Projecao possível ponto influente
Fim de Arquivo
146.

Grã.fico da Funçao

x102
1,33
1,18
1,03
0,89
0,74
0,6
0,45
0,31
0,0 0, 4 0,68 1, 2 1, 6 1,7 2, 4
Uariãvel Independente

Grãfico de Residuos NorMalizados

1,13
0,68

R 0,22
e
s -0,23
----------------------···------------- �----l/---·---··-····
l -0, 6a

o -1,14
s
-1,59
- 2 ,05+----r-----,-----,-----,------,---�---+-
0, 1 0,45 0,6 0, 4 0, 9 1,18 1, 2 x102
EstiMativas
147.
Verificacao das Pressuposicoes do Modelo

Teste de Chorrilhos · Aleatoriedade dos Erros

Nunero de Chorrilhos : 4

Nro. de símbolos do tipo 1 7


Nro. de símbolos do tipo 2 6

Aceita-se HO : os erros sao aleatorios

Teste de Lilliefors · Normalidade dos Erros

Estatística D 0.988

Aceita-se Hi: erros nao sao normais

Outras Estatísticas da Normalidade

Estatística Valor esperado Valor obtido

Media 0.000 0.000


Mediana 0.224
Variancia
Assimetria
Curtose
º·ººº
3.000
32.501
·0.669
2.987

Teste de Cook & �eisberg : Homocedasticidade

Estatística S 0.470

Aceita-se HO: os erros sao homocedasticos

Teste de Anscombe : Homocedasticidade

Estatística T : 0.849

Aceita-se HO: os erros sao homocedasticos

Fim de Arquivo
148.

Repe,sae U lteneae1 997


rn: a +1.34931:+83
+1.38E+92
u L2
iil: +1.3&E+82
111n01 Slt 1 • +5.3533E♦l1 li: +1.58E-91 +1.92E-81
e: +5.94E-91 +5.89[-81
+5. 3533[+81

b111ssae U
S.Quad.totll........ : +1.521+95
S,Quad,lotal Coni1.: +1.26E+84
S.Quad., Residuos.... 1 t3,98Et82
$,Absoluto do Ino.. : +5,68E+81
Q,llec!io cio Resi.wi.. 1 +3.98E+i1
Ual 1 dt f.......... : 1381.68
Cotf, d.t CnnlK.o,: t.969
Coe • clt Co11pa1Kao,: i.%3
l.iftlkia• ., ......., , • .t ♦ lE-12

Crãrico � funç�o

x1ei
♦ ♦
1,18
1,03
S,88
y
0.n
9,57 ,/,

0,42 I/
a,2,
9,0 9, 4 0,68 1, 1,' 1. 7 ,, 4
Ui.l'iàvel lndepenil.ente

-Ll f.tltll u
149

... ou você usa um PC 486 DX2 60 Mhz ou ...

Você também pode gostar