Pesquisa Bibliográfica



Yüklə 0,7 Mb.
səhifə26/34
tarix28.10.2017
ölçüsü0,7 Mb.
#19393
1   ...   22   23   24   25   26   27   28   29   ...   34

Comentários: neste paper, é estudado como a habilidade de generalização da modelagem de sistemas dinâmicos pode ser melhorada fazendo uso das vantagens fornecidas pelas derivadas de segunda ordem da função de critério com respeito às entradas externas. O método proposto é baseado na teoria de regularização proposta por Poggio e Givosi (1990).




Referência 387

Ishikawa, M. Rule extraction by successive regularization, In International Conference on Neural Networks, pp. 1139-1143, IEEE Press, 1996.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: ruído, treinamento estrutural, regularização sucessiva, classificação

Comentários: este paper propõe uma nova abordagem para regular a aquisição de conhecimento pelo uso de redes neurais, chamada regularização sucessiva. Ele gera um pequeno número de regras dominantes em um estágio inicial e regras menos dominantes em estágios mais avançados. Isto traz várias vantagens, como robustez, melhor entendimento e similaridade ao desenvolvimento de uma criança.
Referência 388

Ishikawa, M. Rule extraction by successive regularization, In International Conference on Neural Networks, pp. 1139-1143, IEEE Press, 1996.



Fonte: www.bae.unicamp.br - Probe - Elsevier

Resumo: não

Artigo Completo: não

Palavras-Chave: ruído, treinamento estrutural, regularização sucessiva, classificação

Comentários: este paper propõe uma nova abordagem para regular a aquisição de conhecimento pelo uso de redes neurais, chamada regularização sucessiva. Ele gera um pequeno número de regras dominantes em um estágio inicial e regras menos dominantes em estágios mais avançados. Isto traz várias vantagens, como robustez, melhor entendimento e similaridade ao desenvolvimento de uma criança.

Referência 389


Jones, L. A simple lemma on greedy approximation in Hilbert space and convergence rate for projection pursuit regression and neural network training, Annals of Statistics, vol. 20, pp. 608-613, 1992.

Fonte: ftp://ftp.sas.com/pub/neural/FAQ2.html

Resumo: não

Artigo Completo: não

Palavras-Chave: regressão, projection pursuit, regularização, treinamento de redes neurais, espaço de Hilbert

Comentários: não há informação suficiente.

Referência 390


Krzyzak, A.; Linder, T. Radial basis function networks and complexity regularization in function learning, IEEE Trans. on Neural Networks, vol. 9, pp. 247-256, 1998.

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: erro, funções de base radial, ferramentas de aprendizado

Comentários: este artigo tem um bom número de citações na literatura.

Referência 391


Leen, T.K. From Data Distributions to Regularization in Invariant Learning, Neural Computation, vol. 7, pp. 974-981, 1995.

Fonte: www.stat.rice.edu/~dcox/CV/pub/node97.html

Resumo: não

Artigo Completo: não

Palavras-Chave: aprendizado, regularização

Comentários: não há informação suficiente.
Referência 392

Leung, C.T.; Chow, T.W.S. Least third-order cumulant method with adaptive regularization parameter selection for neural networks, Artificial Intelligence, vol. 127, no. 2, pp. 169-197, April 2001.



Fonte: www.bae.unicamp.br - Probe - Elsevier

Resumo: sim

Artigo Completo: sim

Palavras-Chave: regularização, capacidade de generalização, acumulador de terceira ordem

Comentários: este paper introduz uma propriedade da função objetiva acumuladora de terceira ordem. A propriedade é que a solução é ótima quando os gradientes dos erros médios quadráticos e erro cumulativo de terceira ordem são vetores nulos. As soluções ótimas são independentes dos parâmetros de regularização.



Referência 393

Lindstrom, P.; Eriksson, J.; Wedin, P.A. Regularization tools for neural network training, Technical Report UMINF 95.02, Dept. of Comp. Science, Umea University, Umea, Sweden, 1995.



Assunto: Redes neurais

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: não há informações suficientes

Comentários: não há informações suficientes


Referência 394

Mayer, H.A.; Huber, R.; Schwaiger, R. Lean Artificial Neural Networks - Regularization Helps Evolution, In Proceedings of the 2nd Nordic Workshop on Genetic Algorithms and their Applications, pp. 163-172, 1996.



Assunto: Redes Neurais

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: sim

Artigo Completo: sim

Palavras-Chave: algoritmo genético, codificação, erro de aprendizado, mapeamento

Comentários: este paper apresenta um critério para a acuidade das soluções de redes neurais artificiais para classificação de padrões através da arquitetura. Para isso, adotou-se uma abordagem baseada em algoritmos genéticos. São estudados também os erros de aprendizado e o termo de regularização dependente da topologia da rede.

Referência 395


Meade Jr., A.J. Regularization of a Programmed Recurrent Artificial Neural Network, citeseer.nj.nec.com/405190.html, 1998.

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: sim

Artigo Completo: sim

Palavras-Chave: restrições, bias/variância, aproximação polinomial

Comentários: este paper desenvolve um método para construção manual de redes neurais artificiais recorrentes para modelar a fusão de dados experimentais e modelos matemáticos de sistemas físicos. A construção requer o uso da regularização generalizada de Tikhonov e a imposição de certas restrições nos valores de entrada, bias e pesos de saída.

Referência 396

Moody, J.E. Note on generalization, regularization and architecture selection in nonlinear learning systems, Proceedings of the 1991 IEEE Workshop Neural Networks for Signal Processing, pp. 1-10, Sept 1991.



Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: minimização da função de treinamento, generalização, seleção de arquitetura, sistemas de aprendizado não-linear, redes backpropagation

Comentários: o autor propõe uma nova estimação do desempenho de generalização para sistemas de aprendizado não-lineares, chamada de erro de predição generalizada (GPE), a qual é baseada na noção do número efetivo de parâmetros p/sub eff/(lambda). Esse número depende da quantidade de tendência e suavidade no modelo. Este é um artigo com um bom número de citações na literatura.

Yüklə 0,7 Mb.

Dostları ilə paylaş:
1   ...   22   23   24   25   26   27   28   29   ...   34




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin