Comentários: neste paper, é estudado como a habilidade de generalização da modelagem de sistemas dinâmicos pode ser melhorada fazendo uso das vantagens fornecidas pelas derivadas de segunda ordem da função de critério com respeito às entradas externas. O método proposto é baseado na teoria de regularização proposta por Poggio e Givosi (1990).
Referência 387
Ishikawa, M. Rule extraction by successive regularization, In International Conference on Neural Networks, pp. 1139-1143, IEEE Press, 1996.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: ruído, treinamento estrutural, regularização sucessiva, classificação
Comentários: este paper propõe uma nova abordagem para regular a aquisição de conhecimento pelo uso de redes neurais, chamada regularização sucessiva. Ele gera um pequeno número de regras dominantes em um estágio inicial e regras menos dominantes em estágios mais avançados. Isto traz várias vantagens, como robustez, melhor entendimento e similaridade ao desenvolvimento de uma criança.
Referência 388
Ishikawa, M. Rule extraction by successive regularization, In International Conference on Neural Networks, pp. 1139-1143, IEEE Press, 1996.
Fonte: www.bae.unicamp.br - Probe - Elsevier
Resumo: não
Artigo Completo: não
Palavras-Chave: ruído, treinamento estrutural, regularização sucessiva, classificação
Comentários: este paper propõe uma nova abordagem para regular a aquisição de conhecimento pelo uso de redes neurais, chamada regularização sucessiva. Ele gera um pequeno número de regras dominantes em um estágio inicial e regras menos dominantes em estágios mais avançados. Isto traz várias vantagens, como robustez, melhor entendimento e similaridade ao desenvolvimento de uma criança.
Referência 389
Jones, L. A simple lemma on greedy approximation in Hilbert space and convergence rate for projection pursuit regression and neural network training, Annals of Statistics, vol. 20, pp. 608-613, 1992.
Fonte: ftp://ftp.sas.com/pub/neural/FAQ2.html
Resumo: não
Artigo Completo: não
Palavras-Chave: regressão, projection pursuit, regularização, treinamento de redes neurais, espaço de Hilbert
Comentários: não há informação suficiente. Referência 390
Krzyzak, A.; Linder, T. Radial basis function networks and complexity regularization in function learning, IEEE Trans. on Neural Networks, vol. 9, pp. 247-256, 1998.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: erro, funções de base radial, ferramentas de aprendizado
Comentários: este artigo tem um bom número de citações na literatura.
Referência 391
Leen, T.K. From Data Distributions to Regularization in Invariant Learning, Neural Computation, vol. 7, pp. 974-981, 1995.
Fonte: www.stat.rice.edu/~dcox/CV/pub/node97.html
Resumo: não
Artigo Completo: não
Palavras-Chave: aprendizado, regularização
Comentários: não há informação suficiente.
Referência 392
Leung, C.T.; Chow, T.W.S. Least third-order cumulant method with adaptive regularization parameter selection for neural networks, Artificial Intelligence, vol. 127, no. 2, pp. 169-197, April 2001.
Fonte: www.bae.unicamp.br - Probe - Elsevier
Resumo: sim
Artigo Completo: sim
Palavras-Chave: regularização, capacidade de generalização, acumulador de terceira ordem
Comentários: este paper introduz uma propriedade da função objetiva acumuladora de terceira ordem. A propriedade é que a solução é ótima quando os gradientes dos erros médios quadráticos e erro cumulativo de terceira ordem são vetores nulos. As soluções ótimas são independentes dos parâmetros de regularização.
Referência 393
Lindstrom, P.; Eriksson, J.; Wedin, P.A. Regularization tools for neural network training, Technical Report UMINF 95.02, Dept. of Comp. Science, Umea University, Umea, Sweden, 1995.
Assunto: Redes neurais
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: não há informações suficientes
Comentários: não há informações suficientes
Referência 394
Mayer, H.A.; Huber, R.; Schwaiger, R. Lean Artificial Neural Networks - Regularization Helps Evolution, In Proceedings of the 2nd Nordic Workshop on Genetic Algorithms and their Applications, pp. 163-172, 1996.
Assunto: Redes Neurais
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: sim
Artigo Completo: sim
Palavras-Chave: algoritmo genético, codificação, erro de aprendizado, mapeamento
Comentários: este paper apresenta um critério para a acuidade das soluções de redes neurais artificiais para classificação de padrões através da arquitetura. Para isso, adotou-se uma abordagem baseada em algoritmos genéticos. São estudados também os erros de aprendizado e o termo de regularização dependente da topologia da rede.
Referência 395
Meade Jr., A.J. Regularization of a Programmed Recurrent Artificial Neural Network, citeseer.nj.nec.com/405190.html, 1998.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: sim
Artigo Completo: sim
Palavras-Chave: restrições, bias/variância, aproximação polinomial
Comentários: este paper desenvolve um método para construção manual de redes neurais artificiais recorrentes para modelar a fusão de dados experimentais e modelos matemáticos de sistemas físicos. A construção requer o uso da regularização generalizada de Tikhonov e a imposição de certas restrições nos valores de entrada, bias e pesos de saída.
Referência 396
Moody, J.E. Note on generalization, regularization and architecture selection in nonlinear learning systems, Proceedings of the 1991 IEEE Workshop Neural Networks for Signal Processing, pp. 1-10, Sept 1991.
Fonte: base de dados IEEE/IEE - BAE
Resumo: sim
Artigo Completo: sim
Palavras-Chave: minimização da função de treinamento, generalização, seleção de arquitetura, sistemas de aprendizado não-linear, redes backpropagation
Comentários: o autor propõe uma nova estimação do desempenho de generalização para sistemas de aprendizado não-lineares, chamada de erro de predição generalizada (GPE), a qual é baseada na noção do número efetivo de parâmetros p/sub eff/(lambda). Esse número depende da quantidade de tendência e suavidade no modelo. Este é um artigo com um bom número de citações na literatura.
Dostları ilə paylaş: |