Representação de Objeto para Aprendizado de Máquina Baseado em Lattice

Este é o quarto artigo de uma série (links para o primeiro , segundo e terceiroartigos), voltado para o sistema de aprendizado de máquina baseado na teoria dos reticulados, denominado "sistema VKF". O programa usa algoritmos baseados em cadeias de Markov para gerar as causas da propriedade de destino, calculando um subconjunto aleatório de semelhanças entre alguns grupos de objetos de aprendizagem. Este artigo descreve a representação de objetos por meio de cadeias de bits para calcular as semelhanças por multiplicação bit a bit das representações correspondentes. Objetos com recursos discretos requerem alguma técnica da Análise de Conceito Formal. O caso de objetos com características contínuas usa regressão logística, dividindo a área de mudança em subintervalos usando a teoria da informação e uma representação correspondente ao casco convexo dos intervalos comparados.



tenho ideia!



1 sinais discretos



, , - . , ""/"". 'null' ( '_' ), () .



. . , .



( , ), () .





L,, G () - M () - . gImgm (G,M,I) L(G,M,I), L,,.



xL L,, -, x y,zL y<x z<x yz<x.

xL L,, -, xT y,zL x<y x<z x<yz.



- , , - , .



elementos irredutíveis



( . (L,L,))



G\M h i j k
a 1 1 1 0
b 0 1 1 1
c 1 1 0 0
d 1 0 1 0
f 0 1 0 1
g 0 0 1 1


, .



, 121 , 24 !



, :



  1. .
  2. , ( - ).
  3. (-) .
  4. .


CPython-: 'vkfencoder' vkfencoder.XMLImport 'vkf' vkf.FCA. — : vkf.FCA MariaDB, vkfencoder.XMLImport XML .



2



. C4.5 .

, .

, , , . .



2.1



, . .



E=GO G - O. [a,b)R V:GR G[a,b)={gG:aV(g)<b}, O[a,b)={gO:aV(g)<b}

E[a,b)={gE:aV(g)<b}.



[a,b)R V:GR



ent[a,b)=|G[a,b)||E[a,b)|log2(|G[a,b)||E[a,b)|)|O[a,b)||E[a,b)|log2(|O[a,b)||E[a,b)|)



a<r<b [a,b)R V:GR



inf[a,r,b)=|E[a,r)||E[a,b)|ent[a,r)+|E[r,b)||E[a,b)|ent[r,b).



V=r .



V:GR a=min{V} v0, vl+1 , b=max{V}. {v1<<vl} .



2.2



2l, l — . ()



δiV(g)=1V(g)viσiV(g)=1V(g)<vi,



1il.



δ1V(g)δlV(g)σ1V(g)σlV(g) V gE.



, — .



δ1(1)δl(1)σ1(1)σl(1) viV(A1)<vj δ1(2)δl(2)σ1(2)σl(2) vnV(A2)<vm.



(δ1(1)δ1(2))(δl(1)δl(2))(σ1(1)σ1(2))(σl(1)σl(2))



min{vi,vn}V((A1A2))<max{vj,vm}.



, 0000 min{V}V((A1A2))max{V}.



2.3



. ( 1). . , .





pi1pik pi1++pik>σ 0<σ<1.



,



c:Rd{0,1}, Rd — ( d ) {0,1} .



, X,KRd×{0,1},



pX,K(x,k)=pX(x)pKX(kx),



pX(x) — () , a pKX(kx) — , .. xRd



pKX(kx)=P{K=kX=x}.



c:Rd{0,1}



R(c)=P{c(X)K}.



b:Rd{0,1} pKX(kx)



b(x)=1pKX(1x)>12>pKX(0x)





b :



c:Rd{0,1}[R(b)=P{b(X)K}R(c)]





pKX(1x)=pXK(x1)P{K=1}pXK(x1)P{K=1}+pXK(x0)P{K=0}==11+pXK(x0)P{K=0}pXK(x1)P{K=1}=11+exp{a(x)}=σ(a(x)),



a(x)=logpXK(x1)P{K=1}pXK(x0)P{K=0} σ(y)=11+exp{y} .



2.4



a(x)=logpXK(x1)P{K=1}pXK(x0)P{K=0} wTφ(x) φi:RdR (i=1,,m) wRm.



x1,k1,,xn,kn tj=2kj1.



log{p(t1,,tnx1,,xn,w)}=j=1nlog[1+exp{tji=1mwiφi(xj)}].



,



L(w1,,wm)=j=1nlog[1+exp{tji=1mwiφi(xj)}]max



.



-



wt+1=wt(wTwL(wt))1wL(wt).



sj=11+exp{tj(wTΦ(xj))}



L(w)=ΦTdiag(t1,,tn)s,L(w)=ΦTRΦ,



R=diag(s1(1s1),s2(1s2),,sn(1sn))

s1(1s1),s2(1s2),,sn(1sn) diag(t1,,tn)st1s1,t2s2,,tnsn.



wt+1=wt+(ΦTRΦ)1ΦTdiag(t)s=(ΦTRΦ)1ΦTRz,



z=Φwt+R1diag(t1,,tn)s — .



, - -



wt+1=(ΦTRΦ+λI)1(ΦTRz).



"-" : 1 .



, . :



- Vk ,



R2=1exp{2(L(w0,,wk1)L(w0,,wk1,wk))/n}σ



Vk ,



1L(w0,,wk1,wk)L(w0,,wk1)σ





"-" Wine Quality ( . ). . ( >7), .



( 2.3) "" "". ( ) , 0 1. " " "" .



Mas a situação com o par ("pH", "álcool") era radicalmente diferente. O peso do "álcool" foi positivo, enquanto o peso do "pH" foi negativo. Mas com a ajuda de uma transformação lógica óbvia, obtivemos a implicação ("pH" "álcool").



O autor gostaria de agradecer a seus colegas e alunos pelo apoio e incentivos.




All Articles