Pesquisa Bibliográfica



Yüklə 0,7 Mb.
səhifə25/34
tarix28.10.2017
ölçüsü0,7 Mb.
#19393
1   ...   21   22   23   24   25   26   27   28   ...   34

Referência 373


Belmont, C.A.; Barron, A.R. Complexity regularization with application to artificial neural networks, In Nonparametric Functional Estimation and Related Topics, Boston: Kluwer Academic Publishers, pp. 561-576, 1991.

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: não há informação suficiente

Comentários: não há informação suficiente.

Referência 374


Bishop, C.M. Curvature-driven smoothing in backpropagation neural networks. In Proc. International Joint Conference on Neural Networks, vol. 2, pp. 749-752, 1990.

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: backpropagation, ruído aditivo, treinamento, método steepest-descent

Comentários: este artigo trata primariamente do treinamento eficiente de redes neurais do tipo backpropagation, e também de restrições de pesos e suavidade. Este é um artigo freqüentemente citado na literatura.

Referência 375


Bishop, C.M. Regularization and complexity control in feed-forward networks, Technical Report NCRG/95/022, Neural Computing Research Group, Dept. of Comp. Science and applied Math., Aston University, Birmingham, UK, 1995.

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: parâmetros de regularização, treinamento, ruído, regularização de Tikhonov

Comentários: este é um artigo com um número razoável de citações na literatura.

Referência 376


Bishop, C.M. Training with noise is equivalent to Tikhonov regularization, Neural Computation, vol. 7, no. 1, pp. 108-116, 1995.

Fonte: www.stat.rice.edu/~dcox/CV/pub/node97.html

Resumo: não

Artigo Completo: não

Palavras-Chave: treinamento, ruído, regularização de Tikhonov

Comentários: não há informação suficiente.

Referência 377


Chen, D.; Hagan, M.T. Optimal use of regularization and cross-validation in neural network modeling, International Joint Conference on Neural Networks, vol. 2, pp. 1275-1280, July 1999.

Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: validação cruzada, rede neural feedforward, algoritmo de regularização, erro de validação, aprendizado

Comentários: este paper propõe uma nova estrutura para adaptação dos parâmetros de regularização a fim de minimizar o erro de validação durante o treinamento de redes neurais feedforward. Uma segunda derivação do erro de validação baseado no algoritmo de regularização é obtida usando uma aproximação de Gauss-Newton.
Referência 378

Dixon, L.C.W.; Mills, D.J. Neural network and nonlinear optimization: the representation of continuous functions, Optimization Methods and Software, vol. 1, pp. 141-151, 1992.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: problemas mal-condicionados, estabilização, regularização

Comentários: não há informação suficiente.
Referência 379

Embrechts, M.J. Supervised Scaled Regression Clustering: an Alternative to Neural Networks, IEEE-INNS-ENNS International Conference, vol. 6, pp. 571-576, Como, Italy, July 2000.



Fonte: infocom.uniroma1.it/aurel/papers98/ASNN_NN.pdf

Resumo: sim

Artigo Completo: sim

Palavras-Chave: generalização, splines, clustering, redes neurais, algoritmos genéticos

Comentários: este paper descreve um novo método para o treinamento supervisionado de sistemas de regressão que podem ser uma alternativa para redes neurais artificiais do tipo feedforward treinadas com o algoritmo backpropagation. A metodologia proposta é uma estrutura híbrida baseada em clustering supervisionado com algoritmos genéticos e aprendizado local.
Referência 380

Eriksson, J.; Gulliksson, M.; Lindstrom, P.; Wedin, P.A. Regularization tools for training large-scale neural networks, Technical Report UMINF96.05, Department of Computing Science, Umea University, Umea, Sweden, 1996.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: sim

Artigo Completo: sim

Palavras-Chave: redes neurais feedforward, problemas mal-condicionados, otimização, mínimos quadrados, método de Gauss-Newton

Comentários: este paper apresenta ferramentas para treinamento de redes neurais feedforward de pequena, média e larga escala. A determinação dos pesos leva a problemas muito mal condicionados, e a regularização é freqüentemente sugerida para controlar a complexidade da rede, pequena variância de erro, e bons problemas de otimização. O algoritmo sugerido é baseado na teoria da regularização de Tikhonov.
Referência 381

Eriksson, J.; Gulliksson, M.; Lindstrom, P.; Wedin, P.A. Regularization tools for training large feed-forward neural networks using automatic differentiation, Optimization Methods and Software, vol. 10, no. 1, 1998.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: sim

Artigo Completo: sim

Palavras-Chave: problemas de larga escala, problemas regularizados de Tikhonov, otimização

Comentários: este paper propõe métodos de otimização explicitamente aplicados ao problema de regularização não-linear para problemas de larga escala. Especificamente, os autores formularam e resolveram problemas não-lineares com regularização de Tikhonov.
Referência 382

Fukao, T.; Sumitomo, T.; Ineyama, N.; Adachi, N. Q-learning based on regularization theory to treat the continuous states and actions, IEEE International Joint Conference on Neural Networks Proceedings, IEEE World Congress on Computational Intelligence, vol. 2, pp. 1057-1062, May 1998.



Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: aprendizado, função de aproximação, Q-learning, funções de base radial, pêndulo invertido.

Comentários: apresenta-se neste paper um novo algoritmo que é capaz de tratar valores contínuos do agente de estado e ação em Q-learning. Este algoritmo é baseado em um método de aproximação usando teoria da regularização. A função Q é suavemente aproximada por funções de base radial.

Referência 383

Fukao, T.; Sumitomo, T.; Ineyama, N.; Adachi, N. Q-learning based on regularization theory to treat the continuous states and actions, IEEE International Joint Conference on Neural Networks Proceedings, IEEE World Congress on Computational Intelligence, vol. 2, pp. 1057-1062, May 1998.



Fonte: www.bae.unicamp.br - ERL

Resumo: sim

Artigo Completo: não

Palavras-Chave: aprendizado, Q-learning, suavidade, teoria de regularização

Comentários: aprendizado de reforço é o aprendizado de como agir otimamente em um ambiente desconhecido. O algoritmo Q-learning é um dos algoritmos mais famosos para aprendizado de reforço. Este paper apresenta um método que é capaz de tratar estados contínuos e ações em Q-learning.
Referência 384

Girosi, F.; Chan, N.T. Prior knowledge and the creation of "virtual" examples for RBF networks, Proceedings of the 1995 IEEE Workshop Neural Networks for Signal Processing, pp. 201-210, Aug. 1995.



Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: aprendizado, redes neurais feedforward, redes RBF, simetria radial, treinamento supervisionado

Comentários: considerando o problema de como incorporar conhecimento a priori nas técnicas de aprendizado supervisionado, os autores abordam o problema no escopo da teoria da regularização, e consideram o caso em que se sabe que a função aproximada tem uma simetria radial. A solução deste problema é apresentada através de duas diferentes alternativas.
Referência 385

Goutte, C.; Larsen, J. Adaptive Regularization of Neural Networks using Conjugate Gradient, in Proceedings of ICASSP'98, Seattle, USA, pp. 1201-1204, 1998.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: regularização adaptativa, gradiente conjugado

Comentários: não há informação suficiente.
Referência 386

Han, M.; Hirasawa, K.; Hu, J.; Murata, J. Generalization ability of universal learning network by using second order derivatives, IEEE International Conference on Systems, Man, and Cybernetics, vol. 2, pp. 1818-1823, Oct. 1998.



Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: rede de aprendizado universal, derivadas de segunda ordem, minimização de desvio, identificação de sistema dinâmico não-linear

Yüklə 0,7 Mb.

Dostları ilə paylaş:
1   ...   21   22   23   24   25   26   27   28   ...   34




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin