Referência 248
Barron, A.R. Complexity regularization with application to artificial neural networks, In G. Roussas, editor, Nonparametric Functional Estimation and Related Topics, pp. 561-576. Kluwer Academic Publishers, 1991.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: aprendizado construtivo, limites de risco, generalização, regressão não-paramétrica
Comentários: este artigo é bastante didático e largamente citado na literatura.
Referência 249
Cullum, J. The effective choice of the smoothing norm in regularization, Math. Comp., vol. 33, pp. 149-170, 1979.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: parâmetro de regularização, generalização
Comentários: não há informação suficiente.
Referência 250
Embrechts, M.J. Supervised Scaled Regression Clustering: an Alternative to Neural Networks, IEEE-INNS-ENNS International Conference, vol. 6, pp. 571-576, Como, Italy, July 2000.
Fonte: infocom.uniroma1.it/aurel/papers98/ASNN_NN.pdf
Resumo: sim
Artigo Completo: sim
Palavras-Chave: generalização, splines, clustering, redes neurais, algoritmos genéticos
Comentários: este paper descreve um novo método para o treinamento supervisionado de sistemas de regressão que podem ser uma alternativa para redes neurais artificiais do tipo feedforward treinadas com o algoritmo backpropagation. A metodologia proposta é uma estrutura híbrida baseada em clustering supervisionado com algoritmos genéticos e aprendizado local.
Referência 251
Geman, S.; Bienenstock, E.; Doursat, R. Neural Networks and the Bias/Variance Dilemma, Neural Computation, vol. 4, pp. 1-58, 1992.
Fonte: ftp://ftp.sas.com/pub/neural/FAQ.html
Resumo: não
Artigo Completo: não
Palavras-Chave: dilema bias/variância, redes neurais
Comentários: não há informação suficiente.
Referência 252
Giovannelli, J.F.; Demoment, G.; Herment, A. A Bayesian method for long AR spectral estimation: a comparative study, IEEE Transactions on Ultrasonics, Ferroelectrics and Frequency Control, vol. 43, no. 2, pp. 220-233, March 1996.
Fonte: base de dados IEEE/IEE - BAE
Resumo: sim
Artigo Completo: sim
Palavras-Chave: validação cruzada, processos auto-regressivos, distribuição Gaussiana, método de Bayes, relação bias/variância
Comentários: os autores abordam o problema da estimação da densidade espectral de potência de processos Gaussianos estacionários e de média nula quando apenas um pequeno conjunto de observações está disponível para análise. Há a utilização da validação cruzada generalizada para ajuste automático da suavidade espectral. É feita ainda a investigação da relação bias/variância.
Referência 253
Goutte, C., Hansen, L.K. Regularization with a Pruning Prior, Neural Networks, vol. 10, no. 6, pp. 1053-1059, August 1997.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: sim
Artigo Completo: sim
Palavras-Chave: método de generalização, aprendizado Gaussiano, método de Laplace
Comentários: este paper investiga o uso da regularização a priori, onde é mostrado que esta tem propriedades de poda. As análises são conduzidas tanto através de uma abordagem Gaussiana quanto de um método de generalização, aplicadas a um problema simples. Os resultados são comparados com as abordagens tradicionais.
Referência 254
Han, M.; Hirasawa, K.; Hu, J.; Murata, J. Generalization ability of universal learning network by using second order derivatives, IEEE International Conference on Systems, Man, and Cybernetics, vol. 2, pp. 1818-1823, Oct. 1998.
Fonte: base de dados IEEE/IEE - BAE
Resumo: sim
Artigo Completo: sim
Palavras-Chave: rede de aprendizado universal, derivadas de segunda ordem, minimização de desvio, identificação de sistema dinâmico não-linear
Comentários: neste paper, é estudado como a habilidade de generalização da modelagem de sistemas dinâmicos pode ser melhorada fazendo uso das vantagens fornecidas pelas derivadas de segunda ordem da função de critério com respeito às entradas externas. O método proposto é baseado na teoria de regularização proposta por Poggio e Girosi (1990).
Referência 255
Hansen, L.K.; Rasmussen, C.E.; Svarer, C.; Larsen, J. Adaptive regularization, In Proceedings of the IEEE Workshop on Neural Networks for Signal Processing IV, pp. 78-87, 1994.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: estimação de erro, método do gradiente, erro de generalização, treinamento
Comentários: não há informação suficiente.
Referência 256
Jean, J.S.N.; Wang, J. Weight Smoothing to Improve Network Generalization, IEEE Trans. Neural Networks, vol. 5, no 5, pp. 468-480, September 1995.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: não
Artigo Completo: não
Palavras-Chave: regularização, abordagem baseada em pixels, generalização, treinamento
Comentários: artigo bastante citado na literatura.
Referência 257
Johansen, T.A. On Tikhonov Regularization, Bias and Variance in Nonlinear System Identification, Automatica, vol. 33, no. 3, pp. 441-446, March 1997.
Fonte: www.bae.unicamp.br - Probe - Elsevier
Resumo: sim
Artigo Completo: sim
Palavras-Chave: regularização, sistemas não-lineares, aproximação assintótica, dilema bias/variância, identificação de sistema
Comentários: os autores deste trabalho fazem uma discussão a respeito de como o método de regularização de Tikhonov é uma alternativa poderosa para regularização de problemas de identificação de sistemas não-lineares pela introdução da suavidade do modelo como uma informação a priori. Suas propriedades são discutidas em termos de uma análise de bias e variância. Referência 258
Karkhanis, P.; Bebis, G. A performance evaluation of variations to the standard back-propagation algorithm, Conference Record of the Southcon/94, pp. 71-76, March 1994.
Fonte: base de dados IEEE/IEE - BAE
Resumo: sim
Artigo Completo: sim
Palavras-Chave: validação cruzada, generalização, backpropagation, suavidade
Comentários: este paper apresenta uma comparação de desempenho empírica entre três técnicas de melhoria das capacidades de generalização de redes neurais do tipo backpropagation, que são o decaimento de pesos, validação cruzada e suavidade de pesos.
Referência 259
Koshizen, T.; Rosseel, Y.; Tonegawa, Y. A new EM algorithm using Tikhonov regularization, International Joint Conference on Neural Networks, IJCNN '99, vol. 1, pp. 413-418, July 1999.
Fonte: base de dados IEEE/IEE - BAE
Resumo: sim
Artigo Completo: sim
Palavras-Chave: estimação por máxima verossimilhança, modelo Gaussiano misto, suavidade, generalização, função densidade estimada
Comentários: este paper propõe um novo algoritmo do tipo “expectation-maximization (EM)” utilizando a regularização de Tikhonov. Dois passos de aprendizado são envolvidos: primeiro, um algoritmo EM padrão é usado para obtenção de uma estimativa inicial dos parâmetros; a seguir, uma versão regularizada do algoritmo EM para melhorar a suavidade e propriedades de generalização da função densidade estimada.
Referência 260
Larsen, J.; Hansen, L.K. Generalization Performance of Regularized Neural Network Models, in Proceedings of the IEEE Workshop on Neural Networks for Signal Processing IV, pp. 42-51, 1994.
Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/
Resumo: sim
Artigo Completo: sim
Palavras-Chave: arquitetura de redes neurais, generalização, erro de generalização
Comentários: este paper faz a estimação do desempenho de generalização de modelos de redes neurais completos e regularizados. É derivada uma fórmula para a determinação dos pesos de regularização ótimos. Por fim, um novo estimador do erro de generalização é proposto. Este é um artigo largamente citado na literatura.
Referência 261
Lemm, J.C. Fuzzy rules and regularization theory, 6th European Congress on Intelligent Techniques and Soft Computing, EUFIT '98, vol.1, pp.250-254, 1998.
Fonte: www.bae.unicamp.br - ERL
Resumo: sim
Artigo Completo: não
Palavras-Chave: generalização, sistemas de aprendizado, funcionais convexas, aprendizado empírico
Comentários: a habilidade de generalização de sistemas de aprendizado empírico é essencialmente baseada em dependências entre os dados de treinamento conhecidos e futuras situações de teste. Essas dependências são parte da informação a priori necessária para qualquer aprendizado empírico. Neste paper discute-se os aspectos das medidas empíricas e controle da informação a priori.
Referência 262
Leung, C.T.; Chow, T.W.S. Adaptive regularization parameter selection method for enhancing generalization capability of neural networks, Artificial Intelligence, vol. 107, no. 2, pp. 347-356, February 1999.
Fonte: www.bae.unicamp.br - Probe - Elsevier
Resumo: sim
Artigo Completo: sim
Palavras-Chave: redes neurais, método de regularização, capacidade de generalização
Comentários: os autores deste paper propõem uma nova seleção do parâmetro de regularização, a fim de melhorar o desempenho do método de regularização. O método proposto evita a obtenção de soluções sub-ótimas indesejáveis.
Referência 263
Leung, C.T.; Chow, T.W.S. Least third-order cumulant method with adaptive regularization parameter selection for neural networks, Artificial Intelligence, vol. 127, no. 2, pp. 169-197, April 2001.
Fonte: www.bae.unicamp.br - Probe - Elsevier
Resumo: sim
Artigo Completo: sim
Palavras-Chave: regularização, capacidade de generalização, acumulador de terceira ordem
Dostları ilə paylaş: |