Lógica Fuzzy
Lógica Fuzzy
Lógica Fuzzy
Departamento de Computação
Universidade Federal de São Carlos - UFSCar
Caixa Postal 676 13565-905 São Carlos SP - Brazil
{carmo,flavia}@dc.ufscar.br
Abstract: This paper initially discusses the main ideas underneath one of the most representative
learning systems based on the generalization of exemplars, the NGE system. Next it presents the Fuzzy
NGE system which learns by generalizing exemplars described as attribute-fuzzy_value pairs and a
crisp class.
Resumo: Este artigo discute, inicialmente, as principais idéias que subsidiam um dos mais
representativos sistemas de aprendizado baseado na generalização de exemplares, o algoritmo NGE.
E, então, apresenta o sistema Fuzzy NGE que aprende generalizando exemplares descritos por pares
atributo-valor_fuzzy e uma classe crisp.
[v ]
w fi não altera wH não altera
Atributo_1 Atributo_2
0.6
Prox Peso Prox Peso Proximidade
atributo-a-atributo
0.4
0.8
Peso do exemplar Proximidade ponderada
por exemplar
0.6 Exemplar_1 0.6 0.035 * 0.6 = 0.021
Exemplar_2 0.3 0.36 * 0.3 = 0.108
0.4
Tabela 4. Proximidades ponderadas por atributos e exemplares
0.2 poss[v21| v23]
Desta forma, o Exemplar_2 é escolhido como o
0.0
40 50 60 70 80 90 100
exemplar mais próximo do novo exemplo E pois possui a
Figura 2. Possibilidade de v21 dado v23 maior proximidade ponderada (0.108) e pertence à
mesma classe de E (classe 1). Este exemplar será, então,
1.0 generalizado, tornando-se [v12,v24] (como mostra a Figura
poss[v12| v13] 5), onde v12 representa o valor alto. Nota-se que a versão
0.8
Fuzzy NGE permite que “novos valores de atributos”
0.6
sejam dinamicamente criados durante o processo de
aprendizado, ao se generalizarem exemplares via união
0.4 fuzzy. É importante notar que o conjunto fuzzy
v24={0/40+0/50+0/60+0.5/70+ 1/80+0.8/90+1/100} foi
0.2
criado a partir da união dos conjuntos v22 e v23 e não tem
0.0
associado a ele um valor lingüístico.
150 160 170 180 190 200
5
1.0
o sistema mais geral, que cada exemplar fuzzy que define
0.8
o conceito seja transformado em uma regra de produção
fuzzy, com n entradas (dimensão do espaço) e uma saída
0.6
e, então, utilizar um método de inferência fuzzy
Atributo_1 disponível (como o método Mamdani) [Klir (1995)].
0.4
Como a saída da regra de produção, pelo método
0.2 Mamdani, deve ser um conjunto fuzzy e, neste caso, a
saída é a própria classe, esta não pode ter um valor crisp.
0.0
150 160 170 180 190 200
1.0
Atributo_2 Referências
0.4
Figura 5. Exemplar_2 generalizado através da união dos G. J. Klir, B. Yuan. Fuzzy Sets and Fuzzy Logic: theory
conjuntos fuzzy associados aos seus atributos (Atributo_1 and applications. Prentice-Hall International, 1995.
e Atributo_2)
D. Medin, M. Schaffer. Context Theory of Classification
Ao final da fase de aprendizado, todos os Learning. Psychological Review 85, 1978, pp 207-
exemplares fuzzy existentes constituem a expressão 238.
do conceito. Num sistema de aprendizado de
máquina, ao final da fase de aprendizado segue-se a R. S. Michalski, G. Tecuci. Multistrategy Learning.
fase de classificação, quando o conceito aprendido Tutorial T15, IJCAI 1993, 1993.
é usado para classificar novos exemplos. Na fase de M. C. Nicoletti. Ampliando os Limites do Aprendizado
classificação, o Fuzzy NGE classifica um novo Indutivo de Máquina através das Abordagens
exemplo medindo sua proximidade a cada um dos Construtiva e Relacional. Tese de Doutorado,
exemplares (hiper-retângulos triviais ou não) que IFSC/USP, 1994, 195 págs.
compõem a expressão do conceito aprendido na
fase anterior e assume como classe daquele M. C. Nicoletti, F. O. Santos. Learning Fuzzy Exemplars
exemplo a classe do exemplar mais próximo. through a Fuzzified Nested Generalized Exemplar
Theory. Proceedings of the European Workshop on
Fuzzy Decision Analysis for Management, Planning
5 Conclusões
and Otimization, Dortmund, Germany, May 1996,
É fato que algoritmos de aprendizado indutivo que pp 140-145.
sejam incrementais são os candidatos mais
indicados a implementarem o processo de J. R. Quinlan. Induction of Decision Trees. Machine
aprendizado em domínios reais. A característica Learning 1, 1986, pp 81-106.
principal desses algoritmos de “adaptar” a S. L. Salzberg. A Nearest Hyperrectangle Learning
expressão do conceito quando novos exemplos de Method. Machine Learning 6, 1991, pp 251-276.
treinamento se tornam disponíveis, de maneira a
representá-los também, permite que o aprendizado J. C. Schlimmer, D. Fisher. A Case Study of Incremental
possa ser implementado como um processo Concept Induction. Proceedings of the Fifth
dinâmico. Esse trabalho descreve as principais National Conference on Artificial Intelligence,
características de um desses algoritmos Morgan Kaufmann Publishers, 1986, pp 496-501.
incrementais, o NGE, e apresenta e discute o
P. E. Utgoff. ID5: An Incremental ID3. Proceedings of
sistema Fuzzy NGE, em fase de implementação,
the Fifth National Conference on Machine
que realiza aprendizado incremental baseado em
exemplares em domínios fuzzy. É intenção como Learning, University of Michigan, June 1988, pp
continuidade deste trabalho, investigar a 107-120.
potencialidade de outros possíveis operadores fuzzy D. Wettschereck, T. G. Ditterich. An Experimental
para a implementação da proximidade e Comparison of the Nearest-Neighbour and Nearest-
generalização. Além disso, é objetivo investir em Hyperrectangle Algorithms. Machine Learning 19,
uma modificação do Fuzzy NGE para que exemplos 1995, pp 5-27.
de treinamento possam também ser descritos por
classes fuzzy. Prentende-se com isso, além de tornar
6