Lógica Fuzzy

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 6

Aprendizado Incremental Fuzzy: uma Abordagem

Baseada na Teoria de Exemplares Generalizados


Maria do Carmo Nicoletti
Flávia Oliveira Santos

Departamento de Computação
Universidade Federal de São Carlos - UFSCar
Caixa Postal 676 13565-905 São Carlos SP - Brazil
{carmo,flavia}@dc.ufscar.br

Abstract: This paper initially discusses the main ideas underneath one of the most representative
learning systems based on the generalization of exemplars, the NGE system. Next it presents the Fuzzy
NGE system which learns by generalizing exemplars described as attribute-fuzzy_value pairs and a
crisp class.

Resumo: Este artigo discute, inicialmente, as principais idéias que subsidiam um dos mais
representativos sistemas de aprendizado baseado na generalização de exemplares, o algoritmo NGE.
E, então, apresenta o sistema Fuzzy NGE que aprende generalizando exemplares descritos por pares
atributo-valor_fuzzy e uma classe crisp.

efetivamente para a implementação de sistemas de


1 Introdução aprendizado de máquina. A partir de exemplos, vários
Aprendizado pode ser caracterizado como um tipos de tarefas podem ser aprendidas como, por
processo multidimensional que, via de regra, ocorre exemplo, diagnóstico de doenças, previsão
através da aquisição de conhecimento declarativo, meteorológica, predição do comportamento de novos
do desenvolvimento de habilidades motoras e compostos químicos, predição de propriedades
cognitivas através de instrução e prática, da mecânicas de metais com base em algumas de suas
organização do conhecimento existente em propriedades químicas, etc. Técnicas de aprendizado de
representações mais efetivas, da descoberta de máquina têm sido utilizadas em todas essas tarefas e em
novos fatos e/ou teorias através de observação e muitas outras, principalmente naquelas passíveis de
experimentação ou, então, através da combinação serem enquadradas como aprendizado de conceitos a
e/ou composição dessas dimensões [Michalski partir de exemplos. A aplicação mais óbvia de
(1993)]. aprendizado de máquina está na articulação de sistemas
Devido, principalmente, à sua natureza de aprendizado de máquina a mecanismos de aquisição
multidimensional e interdisciplinar, à existência ou de conhecimento, em sistemas baseados em
não de conhecimento prévio para o aprendizado de conhecimento.
novos conhecimentos, à não obediência a uma Para a expressão de qualquer paradigma de
cronologia predefinida, a diferentes graus de aprendizado são necessárias linguagens que descrevam
especialização das informações disponíveis, às objetos assim como linguagens que descrevam os
diferentes possibilidades  bem como às diferentes conceitos aprendidos. Vários formalismos lógicos têm
granularidades  de expressão do conhecimento sido usados em sistemas de aprendizado indutivo para a
aprendido, à sua natureza muitas vezes incremental representação de exemplos e conceitos. Em geral,
e acumulativa, e em outras vezes não monotônica, distinguem-se dois tipos de descrição: descrição baseada
aprendizado se evidencia como um processo em atributos e descrição relacional. Em uma descrição
altamente complexo e ainda não completamente baseada em atributos, objetos são descritos em termos de
entendido [Nicoletti (1994)]. atributos e valores desses atributos. Em uma descrição
Entre os vários paradigmas existentes para relacional (também chamada de descrição estrutural) um
aprendizado tratado como uma área de pesquisa em objeto é descrito em termos de seus componentes e de
Inteligência Artificial, o chamado aprendizado relações entre eles.
indutivo simbólico é um dos que tem sido mais Alguns dos algoritmos/sistemas de aprendizado
largamente pesquisado e tem contribuído indutivo que têm sido utilizados com relativo sucesso em
1
um número razoável de aplicações  tais como o incremental de aprendizado e que permitissem a
ID3 [Quinlan (1986)] e o AQ [Michalski (1993)]  incorporação de tratamento fuzzy, evidenciou a teoria de
usam linguagens baseadas em atributos, também exemplares como uma alternativa viável a ser explorada,
conhecidas como linguagens proposicionais, para a e o algoritmo NGE como uma possível
representação de exemplos e conceitos. Na concretização/generalização daquelas idéias.
realidade, as linguagens de descrição de conceitos Este trabalho está organizado da seguinte maneira:
utilizadas por esses sistemas para a expressão de na próxima seção são descritas as principais idéias que
suas hipóteses induzidas, que tipicamente são subsidiam o modelo de aprendizado baseado na
árvores de decisão e regras de produção generalização de exemplares, através da descrição do
respectivamente, podem ser tratadas como variantes NGE (Nested Generalized Exemplar), um de seus
de linguagens baseadas em atributos. principais representantes. A Seção 3 apresenta e discute o
Com poucas exceções, os sistemas de algoritmo Fuzzy NGE que realiza a generalização de
aprendizado indutivo existentes são não exemplares descritos por atributos com valores fuzzy.
incrementais, i.e., o conjunto de treinamento deve Nessa seção são também propostos e discutidos o uso da
estar disponível ao sistema no começo do processo medida de possibilidade fuzzy para direcionar a escolha
de aprendizado; a expressão do conceito é induzida do melhor exemplar a ser generalizado e o uso da
considerando todos os exemplos de uma vez. Se por operação de união fuzzy para gerar a generalização do
acaso novos exemplos de treinamento se tornam exemplar. A Seção 4 descreve um exemplo simples de
disponíveis após o processo de aprendizado ter aplicação do Fuzzy NGE dando ênfase às operações de
começado, a única maneira possível de incorporá- escolha e generalização do exemplar. A Seção 5
los à expressão do conceito é reiniciar todo o apresenta as conclusões desse trabalho e linhas de
processo de aprendizado com o conjunto de pesquisa para a sua continuidade.
treinamento atualizado.
É importante notar, entretanto, que muitas 2 Aprendizado Indutivo Incremental via
situações de aprendizado podem ser caracterizadas Generalização de Exemplares  o NGE
pela maneira incremental através da qual exemplos A teoria de exemplares generalizados NGE, proposta por
de treinamento se tornam disponíveis. Num Salzberg em [Salzberg (1991)], é uma forma de
ambiente incremental, um sistema ideal de aprendizado indutivo incremental supervisionado a partir
aprendizado deve ser capaz de modificar online a de exemplos, que se baseia no modelo de aprendizado
expressão do conceito à medida que novos humano chamado exemplar-based learning [Medin
exemplos de treinamento se tornam disponíveis. (1978)] e é uma descendente da classificação de padrões
Um novo exemplo pode, potencialmente, provocar nearest neighbour  NN [Cover (1967)].
um rearranjo da expressão do conceito obtida até Recentemente tem-se notado um crescente
então. É fato, entretanto, que restrições com relação investimento em técnicas que têm como base o algoritmo
à extensão com que tais rearranjos devam acontecer NN, devido principalmente à natureza incremental deste
deve ser objeto de estudo e avaliação. algoritmo. A teoria NGE é uma teoria de aprendizado
Incrementabilidade em um sistema de aprendizado, indutivo que pode ser vista como uma hibridação da
via de regra, está associada à maior versatilidade e à classificação NN e da lógica de primeira ordem limitada
maior adaptabilidade do sistema. É, a cláusulas de Horn [Wettschereck (1995)].
conseqüentemente, uma característica desejável, Na teoria NGE os conceitos induzidos assumem a
desde que eficientemente incorporada. forma de hiper-retângulos em um espaço n-dimensional.
As versões incrementais do ID3, conhecidas Esse espaço é definido pelos n atributos usados para a
como ID4 [Schlimmer (1986)] e ID5 [Utgoff descrição dos exemplos. Num paralelo a processos de
(1988)] têm alguns inconvenientes com relação ao generalização convencionais que substituem fórmulas
desempenho. Aparentemente, a descrição de simbólicas por fórmulas simbólicas mais gerais, o
conceito que usa árvore de decisão como linguagem algoritmo NGE modifica hiper-retângulos, através de seu
representacional não é apropriada à abordagem crescimento e reestruturação (e em algumas situações,
incremental. Essas versões incrementais necessitam sua retração).
armazenar todos os exemplos na memória, com o A entrada para o sistema NGE é um conjunto de
objetivo de reusá-los quando um rearranjo da exemplos de treinamento apresentados incrementalmente,
expressão corrente do conceito for necessário. Na cada um descrito como um vetor atributos/
realidade, o ID4 e ID5 implementam uma pseudo- valores_numéricos e uma classe associada. Os n atributos
incrementabilidade. usados para a descrição dos exemplos definem o espaço
A busca por outras linguagens Euclidiano no qual o conceito será representado. Atributos
representacionais que pudessem expressar conceitos podem ter valores crisp que variam de 2 a infinito (valores
induzidos a partir de exemplos de maneira reais) e classes podem ser binárias, discretas ou contínuas.
satisfatória, que fossem adequadas ao modelo
2
Na primeira fase (a de inicialização), o NGE classificação correta. Como U≥C, wH é inversamente
aceita os n (número definido pelo usuário) proporcional à confiança que se tem em H como um
primeiros exemplos que são fornecidos ao sistema “descritor” do conceito, i.e., quanto maior wH, menos
como sendo o conjunto inicial de hiper-retângulos provável é que o exemplar H desempenhe um papel
(chamados de triviais, já que são pontos), cada um relevante na expressão final do conceito. Política
deles considerado um exemplar, a partir dos quais semelhante é adotada com relação aos atributos fi, que
generalizações podem ser feitas. Apenas quando o podem ter o seu peso w fi incrementado ou decrementado
n-ésimo+1 exemplo se torna disponível é que a fase
de ∆f (taxa global de ajuste do peso do atributo, valor
de inicialização termina e a de treinamento começa.
default adotado em [Salzberg (1991)] é 0.2).
Nessa segunda fase, onde o aprendizado
Um outro aspecto importante que caracteriza o
efetivamente ocorre, à medida que novos exemplos
algoritmo NGE é que tal algoritmo permite, durante o
vão sendo apresentados, o NGE generaliza os hiper-
processo indutivo, a criação de hiper-retângulos
retângulos do conjunto inicial, dispostos no espaço
aninhados; o hiper-retângulo mais interno é tratado como
Euclidiano n-dimensional, expandido-os (e em
uma exceção ao mais externo. Essa forma de
alguns situações específicas, encolhendo-os), ao
representação de exceções é, de certa forma, não muito
longo de uma ou mais dimensões. Como será visto a
usual uma vez que não reflete a idéia intuitiva do que seja
seguir, o número de hiper-retângulos no espaço
um conceito.
pode aumentar, à medida que o aprendizado
prossegue.
A escolha de qual hiper-retângulo generalizar
3 Aprendizado NGE em domínios fuzzy
depende de uma métrica de distância. Em um O sistema Fuzzy NGE é uma versão do sistema NGE
universo onde os atributos têm valores crisp, tal original, baseada no algoritmo proposto em [Nicoletti
métrica é uma distância Euclidiana ponderada, (1996)], que aceita exemplos de treinamento descritos
pontoaponto (hiper-retângulo trivial) ou por atributos que possuem valores fuzzy e uma classe
pontoahiper-retângulo. crisp associada, chamados nesse trabalho de exemplos
Para cada novo exemplo de treinamento E, o fuzzy. O seu processo de inicialização é o mesmo do
NGE encontra entre todos os hiper-retângulos NGE original, onde um número de pontos determinado
(exemplares) existentes até então no espaço n- pelo usuário são transformados em exemplares fuzzy.
dimensional, o hiper-retângulo mais próximo, Com o término da fase de inicialização, e com o espaço
Hpróximo1, e o segundo mais próximo, Hpróximo2, do de hipóteses formado pelos n primeiros exemplos, o
novo exemplo E. Após encontrar os dois sistema inicia sua fase de treinamento. Cada novo
exemplares mais próximos, o sistema prossegue exemplo fuzzy é, então, comparado com cada um dos
com a comparação das classes (a do exemplo com a exemplares fuzzy existentes até então no espaço n-
de cada um dos dois exemplares) que permite dimensional de atributos.
escolher qual exemplar será generalizado. Se E e Com o objetivo de escolher o exemplar a ser
Hpróximo1 têm a mesma classe, Hpróximo1 é generalizado, o sistema Fuzzy NGE avalia a proximidade
generalizado, processo onde o hiper-retângulo é do novo exemplo de treinamento com relação a todos
expandido de maneira a incluir o novo exemplo. Se, exemplares existentes no espaço e elege os dois mais
no entanto, a classe de E difere da classe de próximos. Para a avaliação da proximidade entre um
Hpróximo1, o sistema compara a classe de E com a exemplo e um exemplar é usada uma medida de distância
classe de Hpróximo2. Se ambos têm a mesma classe, o ponderada, baseada na noção fuzzy de possibilidade [Klir
NGE vai generalizar Hpróximo2. Entretanto, se E (1995)] entre os conjuntos fuzzy que descrevem o
também não pertencer à mesma classe de Hpróximo2, exemplo e o exemplar, para cada atributo existente.
esse novo exemplo torna-se um novo exemplar, Para encontrar a proximidade ponderada de um
assumindo a forma de um hiper-retângulo trivial no exemplo E a um exemplar H o sistema executa três
espaço n-dimensional. procedimentos: • encontra a medida de proximidade
Um mecanismo de ajuste de pesos é adotado atributo-a-atributo entre E e H, através da medida de
pelo NGE como uma forma de reforçar a relevância possibilidade entre os conjuntos fuzzy associados a cada
de atributos e exemplares no processo de atributo que descreve E e H; • calcula a média ponderada
classificação. Tal reforço pode ser positivo ou da proximidade atributo-a-atributo usando o peso
negativo, dependendo da contribuição de cada associado a cada atributo; • pondera o valor obtido no
atributo e de cada exemplar quando da classificação passo anterior pelo peso do exemplar H. A proximidade
de cada um dos exemplos de treinamento. O peso ponderada entre E e H obtida após a execução desses três
wH do exemplar H é inicializado com 1 e à medida procedimentos é um número real.
que o treinamento prossegue, wH=U/C vai sendo Ao contrário do mecanismo de ponderação do NGE
atualizado, onde U é o número de vezes que H foi original, o Fuzzy NGE assume que quanto maior o peso
usado e C é o número de vezes que H fez a associado a um atributo, mais relevante é o papel desse
3
atributo na indução da expressão do conceito. A determinação de proximidade e a união de conjuntos
mesma regra se aplica ao peso de exemplares. fuzzy usada na generalização de exemplares, são
Todos os pesos de atributos e exemplares são apresentados considerando uma situação de aprendizado
inicializados com 1. O funcionamento do algoritmo onde:
de ajuste de pesos é mostrado na Tabela 1.
• n é o número de atributos fuzzy
Classe Classe Ajuste de Ajuste de • para cada atributo fuzzy Fk (1≤ k ≤ n), existem ik
wfi
Hpróximo1 Hpróximo2 wH conjuntos fuzzy associados correspondentes aos ik
Hpróximo1 : Hpróximo1 : possíveis valores fuzzy desse atributo, notados por
=  w fi = w fi +0.05 wH = wH +0.05 v jp j , onde 1 ≤ j ≤ n e 1 ≤ p j ≤ i j
Hpróximo2 : Hpróximo2 :
• E e H são descritos respectivamente por:

[v ]
w fi não altera wH não altera

Classe Hpróximo1 : Hpróximo1 : 1p ′1 , v 2 p′ , v 3p′ , ..., v np′


2 3 n
≠ = w fi = w fi -0.05 wH = wH -0.05 e
de E Hpróximo2 :
w fi = w fi +0.05
Hpróximo2 :
wH = wH +0.05 [v 1p′′1 , v 2p′′ , v 3p′′ , ..., v np′′
2 3 n ]
Hpróximo1 : Hpróximo1 : onde p′j e p′′j são duas instâncias de 1 ≤ p j ≤ i j ,
≠ ≠ w fi = w fi -0.05 wH = wH -0.05
para 1≤ j ≤ n
Hpróximo2 : Hpróximo2 :
w fi = w fi -0.05 wH = wH -0.05
A medida de proximidade atributo-a-atributo entre
Tabela 1. Mecanismo de ajuste de pesos adotado pelo E e H, definida como a medida de possibilidade, é
Fuzzy NGE calculada usando-se:
O cálculo da proximidade ponderada é poss [ v jp ′ | v jp ′′ ] = max x [ v jp ′ ∧ v jp ′′ ], j = 1,..., n e
repetido para todos os exemplares existentes no j j j j

espaço n-dimensional. Usando as medidas obtidas a generalização de um exemplar H dado um exemplo E, é


de proximidade ponderada do novo exemplo a calculada através da união dos conjuntos fuzzy em E e H,
todos os exemplares, o Fuzzy NGE define o associados a cada atributo, como se segue:
primeiro e o segundo exemplares mais próximos do
novo exemplo. Uma vez identificados esses dois [v 1 p ′1 ∨ v 1 p ′′ , v 2 p ′ ∨ v
1 2
2 p ′′2 ,.., v jp ′n ∨ v jp ′′
n ]
exemplares mais próximos (Hpróximo1 e Hpróximo2),
segue-se o processo de generalização. 4 Aplicando o Fuzzy NGE
Para escolher qual dos dois será generalizado,
o Fuzzy NGE utiliza o mesmo procedimento do Considere uma situação simples representada por dois
NGE original. Dependendo do resultado da exemplares fuzzy (os pontos iniciais), onde cada
comparação entre as classes crisp de E e de cada exemplar é descrito por dois atributos identificados como
um dos dois exemplares escolhidos, uma das Atributo_1 (altura) e Atributo_2 (peso) e uma classe
situações descritas na Tabela 2 ocorrerá. crisp associada. Seja o Exemplar_1=[v11,v21] pertencente
à classe 0 e Exemplar_2=[v12,v22] pertencente à classe 1.
Classe Classe Fuzzy NGE Os conjuntos de valores fuzzy associados ao
Hpróximo1 Hpróximo2 Atributo_1 são definidos no conjunto base
=  Generaliza Hpróximo1 X={150,160,170,180,190,200}. Os conjuntos fuzzy v11 =
Classe ≠ = Generaliza Hpróximo2 {1/150+0.8/160+0.2/170+0/180+0/190+0/200} e v12=
de E ≠ ≠ E torna-se um novo {0/150+0/160+0.2/170+0.5/180+1/190+1/200} repre-
exemplar sentam, respectivamente, os valores lingüísticos baixo e
Tabela 2. Possíveis situações quando da generalização alto.
Os conjuntos de valores fuzzy associados ao
Assim como no NGE, o processo de Atributo_2 são definidos no conjunto base
generalização de um exemplar H usando o exemplo Y={40,50,60,70,80,90,100}. Os conjuntos fuzzy v21 =
E, no Fuzzy NGE, pode ser descrito como uma {1/40+1/50+0.8/60+0.5/70+0.1/80+0/90+0/100} e v22=
absorção de E por H, a qual é realizada {0/40+0/50+0/60+0.5/70+1/80+0.3/90+0/100} represen-
expandindo-se o exemplar H para que este inclua E. tam os valores lingüísticos leve e meio pesado,
O Fuzzy NGE generaliza um exemplar através da respectivamente.
união dos conjuntos fuzzy associados aos atributos Dado que o espaço de hipóteses tem estes dois
usados para descrever E e H. exemplares fuzzy (n=2), suponha que um novo exemplo E
Os dois operadores implementados no sistema seja fornecido, definido como E=[v13,v23], pertencente à
Fuzzy NGE, i.e., a medida de possibilidade usada na classe 1, cujos conjuntos fuzzy v13={0/150+0/160+
4
1.0
0/170+0.2/180+1/190+1/200} e v23 = {0/40+0/50+
0/60+0/70+0.1/80+0.8/90+1/100} representam os 0.8

valores lingüísticos muito alto e pesado. É


importante notar que os valores lingüísticos foram 0.6

introduzidos para facilitar o entendimento e não poss[v22| v23]


0.4
apresentam, necessariamente, uma informação
fundamental. 0.2

O Fuzzy NGE calcula, então, a proximidade


atributo-a-atributo entre E e cada um dos 0.0
40 50 60 70 80 90 100

exemplares: Figura 4. Possibilidade de v22 dado v23

Ee poss [ v11| v13 ] = max x [ v11 ∧ v13 ] = 0


Exemplar_1 poss [ v21| v 23 ] = max x [ v 21 ∧ v23 ] = 01
O próximo passo é combinar estas proximidades
 .
obtidas atributo-a-atributo em um único número.
Ee poss [ v12 | v13 ] = max x [ v12 ∧ v13 ] = 1 Aplicando os pesos dos atributos mostrados na Tabela 3,
Exemplar_2 poss [ v22 | v23 ] = max x [ v 22 ∧ v 23 ] = 0.3 têm-se as proximidades ponderadas atributo-a-atributo
 para o Exemplar_1 e Exemplar_2 que são,
As Figuras de 1 a 4 mostram, graficamente, a respectivamente, 0.035 e 0.36, como mostra o cálculo na
medida de possibilidade entre os conjuntos fuzzy Tabela 3. Após o cálculo da proximidade ponderada
para o Exemplar_1 e o Exemplar_2 obtidos acima. atributo-a-atributo, pondera-se este valor pelo peso do
exemplar, obtendo-se os valores para o Exemplar_1 e o
Exemplar_2, respectivamente, 0.021 e 0.108, como
1.0
apresentado na Tabela 4.
0.8

Atributo_1 Atributo_2
0.6
Prox Peso Prox Peso Proximidade
atributo-a-atributo
0.4

Exemplar_1 0 0.2 0.1 0.7 (0*0.2 + 0.1*0.7) / 2


0.2 = 0. 035
poss[v11| v13] Exemplar_2 1 0.6 0.3 0.4 (1*0.6 + 0.3*0.4) /2
0.0
150 160 170 180 190 200 = 0.36
Figura 1. Possibilidade de v11 dado v13 Tabela 3. Proximidades ponderadas atributo-a-atributo entre E
e cada um dos exemplares
1.0

0.8
Peso do exemplar Proximidade ponderada
por exemplar
0.6 Exemplar_1 0.6 0.035 * 0.6 = 0.021
Exemplar_2 0.3 0.36 * 0.3 = 0.108
0.4
Tabela 4. Proximidades ponderadas por atributos e exemplares
0.2 poss[v21| v23]
Desta forma, o Exemplar_2 é escolhido como o
0.0
40 50 60 70 80 90 100
exemplar mais próximo do novo exemplo E pois possui a
Figura 2. Possibilidade de v21 dado v23 maior proximidade ponderada (0.108) e pertence à
mesma classe de E (classe 1). Este exemplar será, então,
1.0 generalizado, tornando-se [v12,v24] (como mostra a Figura
poss[v12| v13] 5), onde v12 representa o valor alto. Nota-se que a versão
0.8
Fuzzy NGE permite que “novos valores de atributos”
0.6
sejam dinamicamente criados durante o processo de
aprendizado, ao se generalizarem exemplares via união
0.4 fuzzy. É importante notar que o conjunto fuzzy
v24={0/40+0/50+0/60+0.5/70+ 1/80+0.8/90+1/100} foi
0.2
criado a partir da união dos conjuntos v22 e v23 e não tem
0.0
associado a ele um valor lingüístico.
150 160 170 180 190 200

Figura 3. Possibilidade de v12 dado v13

5
1.0
o sistema mais geral, que cada exemplar fuzzy que define
0.8
o conceito seja transformado em uma regra de produção
fuzzy, com n entradas (dimensão do espaço) e uma saída
0.6
e, então, utilizar um método de inferência fuzzy
Atributo_1 disponível (como o método Mamdani) [Klir (1995)].
0.4
Como a saída da regra de produção, pelo método
0.2 Mamdani, deve ser um conjunto fuzzy e, neste caso, a
saída é a própria classe, esta não pode ter um valor crisp.
0.0
150 160 170 180 190 200
1.0

Agradecimentos: À Fapesp pelo apoio financeiro


0.8 Proc. No 1996/10119-2 e Proc. No 95/9392-9.
0.6

Atributo_2 Referências
0.4

T. Cover, P. Hart. Nearest Neighbour Pattern


0.2
Classification. IEEE Transactions on Information
0.0 Theory 13, 1967, pp 21-27.
40 50 60 70 80 90 100

Figura 5. Exemplar_2 generalizado através da união dos G. J. Klir, B. Yuan. Fuzzy Sets and Fuzzy Logic: theory
conjuntos fuzzy associados aos seus atributos (Atributo_1 and applications. Prentice-Hall International, 1995.
e Atributo_2)
D. Medin, M. Schaffer. Context Theory of Classification
Ao final da fase de aprendizado, todos os Learning. Psychological Review 85, 1978, pp 207-
exemplares fuzzy existentes constituem a expressão 238.
do conceito. Num sistema de aprendizado de
máquina, ao final da fase de aprendizado segue-se a R. S. Michalski, G. Tecuci. Multistrategy Learning.
fase de classificação, quando o conceito aprendido Tutorial T15, IJCAI 1993, 1993.
é usado para classificar novos exemplos. Na fase de M. C. Nicoletti. Ampliando os Limites do Aprendizado
classificação, o Fuzzy NGE classifica um novo Indutivo de Máquina através das Abordagens
exemplo medindo sua proximidade a cada um dos Construtiva e Relacional. Tese de Doutorado,
exemplares (hiper-retângulos triviais ou não) que IFSC/USP, 1994, 195 págs.
compõem a expressão do conceito aprendido na
fase anterior e assume como classe daquele M. C. Nicoletti, F. O. Santos. Learning Fuzzy Exemplars
exemplo a classe do exemplar mais próximo. through a Fuzzified Nested Generalized Exemplar
Theory. Proceedings of the European Workshop on
Fuzzy Decision Analysis for Management, Planning
5 Conclusões
and Otimization, Dortmund, Germany, May 1996,
É fato que algoritmos de aprendizado indutivo que pp 140-145.
sejam incrementais são os candidatos mais
indicados a implementarem o processo de J. R. Quinlan. Induction of Decision Trees. Machine
aprendizado em domínios reais. A característica Learning 1, 1986, pp 81-106.
principal desses algoritmos de “adaptar” a S. L. Salzberg. A Nearest Hyperrectangle Learning
expressão do conceito quando novos exemplos de Method. Machine Learning 6, 1991, pp 251-276.
treinamento se tornam disponíveis, de maneira a
representá-los também, permite que o aprendizado J. C. Schlimmer, D. Fisher. A Case Study of Incremental
possa ser implementado como um processo Concept Induction. Proceedings of the Fifth
dinâmico. Esse trabalho descreve as principais National Conference on Artificial Intelligence,
características de um desses algoritmos Morgan Kaufmann Publishers, 1986, pp 496-501.
incrementais, o NGE, e apresenta e discute o
P. E. Utgoff. ID5: An Incremental ID3. Proceedings of
sistema Fuzzy NGE, em fase de implementação,
the Fifth National Conference on Machine
que realiza aprendizado incremental baseado em
exemplares em domínios fuzzy. É intenção como Learning, University of Michigan, June 1988, pp
continuidade deste trabalho, investigar a 107-120.
potencialidade de outros possíveis operadores fuzzy D. Wettschereck, T. G. Ditterich. An Experimental
para a implementação da proximidade e Comparison of the Nearest-Neighbour and Nearest-
generalização. Além disso, é objetivo investir em Hyperrectangle Algorithms. Machine Learning 19,
uma modificação do Fuzzy NGE para que exemplos 1995, pp 5-27.
de treinamento possam também ser descritos por
classes fuzzy. Prentende-se com isso, além de tornar
6

Você também pode gostar