Referência 373
Belmont, C.A.; Barron, A.R. Complexity regularization with application to artificial neural networks, In Nonparametric Functional Estimation and Related Topics, Boston: Kluwer Academic Publishers, pp. 561-576, 1991.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: não há informação suficiente
Comentários: não há informação suficiente.
Referência 374
Bishop, C.M. Curvature-driven smoothing in backpropagation neural networks. In Proc. International Joint Conference on Neural Networks, vol. 2, pp. 749-752, 1990.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: backpropagation, ruído aditivo, treinamento, método steepest-descent
Comentários: este artigo trata primariamente do treinamento eficiente de redes neurais do tipo backpropagation, e também de restrições de pesos e suavidade. Este é um artigo freqüentemente citado na literatura.
Referência 375
Bishop, C.M. Regularization and complexity control in feed-forward networks, Technical Report NCRG/95/022, Neural Computing Research Group, Dept. of Comp. Science and applied Math., Aston University, Birmingham, UK, 1995.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: parâmetros de regularização, treinamento, ruído, regularização de Tikhonov
Comentários: este é um artigo com um número razoável de citações na literatura.
Referência 376
Bishop, C.M. Training with noise is equivalent to Tikhonov regularization, Neural Computation, vol. 7, no. 1, pp. 108-116, 1995.
Fonte: www.stat.rice.edu/~dcox/CV/pub/node97.html
Resumo: não
Artigo Completo: não
Palavras-Chave: treinamento, ruído, regularização de Tikhonov
Comentários: não há informação suficiente. Referência 377
Chen, D.; Hagan, M.T. Optimal use of regularization and cross-validation in neural network modeling, International Joint Conference on Neural Networks, vol. 2, pp. 1275-1280, July 1999.
Fonte: base de dados IEEE/IEE - BAE
Resumo: sim
Artigo Completo: sim
Palavras-Chave: validação cruzada, rede neural feedforward, algoritmo de regularização, erro de validação, aprendizado
Comentários: este paper propõe uma nova estrutura para adaptação dos parâmetros de regularização a fim de minimizar o erro de validação durante o treinamento de redes neurais feedforward. Uma segunda derivação do erro de validação baseado no algoritmo de regularização é obtida usando uma aproximação de Gauss-Newton.
Referência 378
Dixon, L.C.W.; Mills, D.J. Neural network and nonlinear optimization: the representation of continuous functions, Optimization Methods and Software, vol. 1, pp. 141-151, 1992.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: problemas mal-condicionados, estabilização, regularização
Comentários: não há informação suficiente.
Referência 379
Embrechts, M.J. Supervised Scaled Regression Clustering: an Alternative to Neural Networks, IEEE-INNS-ENNS International Conference, vol. 6, pp. 571-576, Como, Italy, July 2000.
Fonte: infocom.uniroma1.it/aurel/papers98/ASNN_NN.pdf
Resumo: sim
Artigo Completo: sim
Palavras-Chave: generalização, splines, clustering, redes neurais, algoritmos genéticos
Comentários: este paper descreve um novo método para o treinamento supervisionado de sistemas de regressão que podem ser uma alternativa para redes neurais artificiais do tipo feedforward treinadas com o algoritmo backpropagation. A metodologia proposta é uma estrutura híbrida baseada em clustering supervisionado com algoritmos genéticos e aprendizado local.
Referência 380
Eriksson, J.; Gulliksson, M.; Lindstrom, P.; Wedin, P.A. Regularization tools for training large-scale neural networks, Technical Report UMINF96.05, Department of Computing Science, Umea University, Umea, Sweden, 1996.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: sim
Artigo Completo: sim
Palavras-Chave: redes neurais feedforward, problemas mal-condicionados, otimização, mínimos quadrados, método de Gauss-Newton
Comentários: este paper apresenta ferramentas para treinamento de redes neurais feedforward de pequena, média e larga escala. A determinação dos pesos leva a problemas muito mal condicionados, e a regularização é freqüentemente sugerida para controlar a complexidade da rede, pequena variância de erro, e bons problemas de otimização. O algoritmo sugerido é baseado na teoria da regularização de Tikhonov.
Referência 381
Eriksson, J.; Gulliksson, M.; Lindstrom, P.; Wedin, P.A. Regularization tools for training large feed-forward neural networks using automatic differentiation, Optimization Methods and Software, vol. 10, no. 1, 1998.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: sim
Artigo Completo: sim
Palavras-Chave: problemas de larga escala, problemas regularizados de Tikhonov, otimização
Comentários: este paper propõe métodos de otimização explicitamente aplicados ao problema de regularização não-linear para problemas de larga escala. Especificamente, os autores formularam e resolveram problemas não-lineares com regularização de Tikhonov.
Referência 382
Fukao, T.; Sumitomo, T.; Ineyama, N.; Adachi, N. Q-learning based on regularization theory to treat the continuous states and actions, IEEE International Joint Conference on Neural Networks Proceedings, IEEE World Congress on Computational Intelligence, vol. 2, pp. 1057-1062, May 1998.
Fonte: base de dados IEEE/IEE - BAE
Resumo: sim
Artigo Completo: sim
Palavras-Chave: aprendizado, função de aproximação, Q-learning, funções de base radial, pêndulo invertido.
Comentários: apresenta-se neste paper um novo algoritmo que é capaz de tratar valores contínuos do agente de estado e ação em Q-learning. Este algoritmo é baseado em um método de aproximação usando teoria da regularização. A função Q é suavemente aproximada por funções de base radial.
Referência 383
Fukao, T.; Sumitomo, T.; Ineyama, N.; Adachi, N. Q-learning based on regularization theory to treat the continuous states and actions, IEEE International Joint Conference on Neural Networks Proceedings, IEEE World Congress on Computational Intelligence, vol. 2, pp. 1057-1062, May 1998.
Fonte: www.bae.unicamp.br - ERL
Resumo: sim
Artigo Completo: não
Palavras-Chave: aprendizado, Q-learning, suavidade, teoria de regularização
Comentários: aprendizado de reforço é o aprendizado de como agir otimamente em um ambiente desconhecido. O algoritmo Q-learning é um dos algoritmos mais famosos para aprendizado de reforço. Este paper apresenta um método que é capaz de tratar estados contínuos e ações em Q-learning.
Referência 384
Girosi, F.; Chan, N.T. Prior knowledge and the creation of "virtual" examples for RBF networks, Proceedings of the 1995 IEEE Workshop Neural Networks for Signal Processing, pp. 201-210, Aug. 1995.
Fonte: base de dados IEEE/IEE - BAE
Resumo: sim
Artigo Completo: sim
Palavras-Chave: aprendizado, redes neurais feedforward, redes RBF, simetria radial, treinamento supervisionado
Comentários: considerando o problema de como incorporar conhecimento a priori nas técnicas de aprendizado supervisionado, os autores abordam o problema no escopo da teoria da regularização, e consideram o caso em que se sabe que a função aproximada tem uma simetria radial. A solução deste problema é apresentada através de duas diferentes alternativas.
Referência 385
Goutte, C.; Larsen, J. Adaptive Regularization of Neural Networks using Conjugate Gradient, in Proceedings of ICASSP'98, Seattle, USA, pp. 1201-1204, 1998.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: regularização adaptativa, gradiente conjugado
Comentários: não há informação suficiente.
Referência 386
Han, M.; Hirasawa, K.; Hu, J.; Murata, J. Generalization ability of universal learning network by using second order derivatives, IEEE International Conference on Systems, Man, and Cybernetics, vol. 2, pp. 1818-1823, Oct. 1998.
Fonte: base de dados IEEE/IEE - BAE
Resumo: sim
Artigo Completo: sim
Palavras-Chave: rede de aprendizado universal, derivadas de segunda ordem, minimização de desvio, identificação de sistema dinâmico não-linear
Dostları ilə paylaş: |