Vamos dizer que nós temos dados sobre 1000 peças de fruta. Eles serao banana, laranja ou algumas outras frutas. Sabemos 3 características sobre cada fruta:
- Se é longo
- Se é doce e
- Se sua cor é amarela.
Podemos pré-computar um monte de coisas sobre a nossa coleção da fruta.
As chamadas "Prior" probabilidades. (Se não conhecia nenhum dos atributos de fruto, esta seria a nossa suposição.) Estas são as nossas taxas de base.
P(Banana) = 0.5 (500/1000)
P(Laranja) = 0.3 (300/1000)
P(Outras Fruitas) = 0.2 (200/1000)
Probabilidade de "Evidence"p(Longo) = 0.5 (500/1000)
P(Doce) = 0.65 (650/1000)
P(Amarelo) = 0.8 (800/1000)
Probabilidade de "Likelihood"P(Longo|Banana) = 0.8 (400/500)
P(Longo|Laranja) = 0 (0/300)[Laranjas nunca estão longas no todas as frutas que temos visto.]
....
P(Amarelo|Outras Fruitas) = 50/200 = 0.25
P(Nao Amarelo|Outras Fruitas) = 150/200 = 0.75
Dada uma fruta, como classificá-lo?Digamos que nos são dadas as propriedades de uma fruta desconhecida, e pediu para classificá-lo. Somos informados de que o fruto é longo, doce e amarelo. É uma banana? É uma laranja? Ou é algum outro Fruit?
Podemos simplesmente executar os números para cada um dos 3 resultados, uma por uma. Em seguida, escolha a maior probabilidade e 'classificar' nosso fruto desconhecido como pertencendo à classe que teve a maior probabilidade com base em nossas provas antes (a nossa 1000 frutas conjunto de treinamento):
Por uma margem esmagadora (0,969 >> 0,072), classificamos este / Long fruta doce / amarelo como provável que seja uma banana.
Fonte: http://stackoverflow.com/questions/10059594/a-simple-explanation-of-naive-bayes-classification



Nenhum comentário:
Postar um comentário