Pesquisa Bibliográfica



Yüklə 0,7 Mb.
səhifə16/34
tarix28.10.2017
ölçüsü0,7 Mb.
#19393
1   ...   12   13   14   15   16   17   18   19   ...   34

Referência 248


Barron, A.R. Complexity regularization with application to artificial neural networks, In G. Roussas, editor, Nonparametric Functional Estimation and Related Topics, pp. 561-576. Kluwer Academic Publishers, 1991.

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: aprendizado construtivo, limites de risco, generalização, regressão não-paramétrica

Comentários: este artigo é bastante didático e largamente citado na literatura.

Referência 249

Cullum, J. The effective choice of the smoothing norm in regularization, Math. Comp., vol. 33, pp. 149-170, 1979.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: parâmetro de regularização, generalização

Comentários: não há informação suficiente.
Referência 250

Embrechts, M.J. Supervised Scaled Regression Clustering: an Alternative to Neural Networks, IEEE-INNS-ENNS International Conference, vol. 6, pp. 571-576, Como, Italy, July 2000.



Fonte: infocom.uniroma1.it/aurel/papers98/ASNN_NN.pdf

Resumo: sim

Artigo Completo: sim

Palavras-Chave: generalização, splines, clustering, redes neurais, algoritmos genéticos

Comentários: este paper descreve um novo método para o treinamento supervisionado de sistemas de regressão que podem ser uma alternativa para redes neurais artificiais do tipo feedforward treinadas com o algoritmo backpropagation. A metodologia proposta é uma estrutura híbrida baseada em clustering supervisionado com algoritmos genéticos e aprendizado local.
Referência 251

Geman, S.; Bienenstock, E.; Doursat, R. Neural Networks and the Bias/Variance Dilemma, Neural Computation, vol. 4, pp. 1-58, 1992.



Fonte: ftp://ftp.sas.com/pub/neural/FAQ.html

Resumo: não

Artigo Completo: não

Palavras-Chave: dilema bias/variância, redes neurais

Comentários: não há informação suficiente.
Referência 252

Giovannelli, J.F.; Demoment, G.; Herment, A. A Bayesian method for long AR spectral estimation: a comparative study, IEEE Transactions on Ultrasonics, Ferroelectrics and Frequency Control, vol. 43, no. 2, pp. 220-233, March 1996.



Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: validação cruzada, processos auto-regressivos, distribuição Gaussiana, método de Bayes, relação bias/variância

Comentários: os autores abordam o problema da estimação da densidade espectral de potência de processos Gaussianos estacionários e de média nula quando apenas um pequeno conjunto de observações está disponível para análise. Há a utilização da validação cruzada generalizada para ajuste automático da suavidade espectral. É feita ainda a investigação da relação bias/variância.

Referência 253

Goutte, C., Hansen, L.K. Regularization with a Pruning Prior, Neural Networks, vol. 10, no. 6, pp. 1053-1059, August 1997.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: sim

Artigo Completo: sim

Palavras-Chave: método de generalização, aprendizado Gaussiano, método de Laplace

Comentários: este paper investiga o uso da regularização a priori, onde é mostrado que esta tem propriedades de poda. As análises são conduzidas tanto através de uma abordagem Gaussiana quanto de um método de generalização, aplicadas a um problema simples. Os resultados são comparados com as abordagens tradicionais.
Referência 254

Han, M.; Hirasawa, K.; Hu, J.; Murata, J. Generalization ability of universal learning network by using second order derivatives, IEEE International Conference on Systems, Man, and Cybernetics, vol. 2, pp. 1818-1823, Oct. 1998.



Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: rede de aprendizado universal, derivadas de segunda ordem, minimização de desvio, identificação de sistema dinâmico não-linear

Comentários: neste paper, é estudado como a habilidade de generalização da modelagem de sistemas dinâmicos pode ser melhorada fazendo uso das vantagens fornecidas pelas derivadas de segunda ordem da função de critério com respeito às entradas externas. O método proposto é baseado na teoria de regularização proposta por Poggio e Girosi (1990).



Referência 255

Hansen, L.K.; Rasmussen, C.E.; Svarer, C.; Larsen, J. Adaptive regularization, In Proceedings of the IEEE Workshop on Neural Networks for Signal Processing IV, pp. 78-87, 1994.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: estimação de erro, método do gradiente, erro de generalização, treinamento

Comentários: não há informação suficiente.
Referência 256

Jean, J.S.N.; Wang, J. Weight Smoothing to Improve Network Generalization, IEEE Trans. Neural Networks, vol. 5, no 5, pp. 468-480, September 1995.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: regularização, abordagem baseada em pixels, generalização, treinamento

Comentários: artigo bastante citado na literatura.

Referência 257

Johansen, T.A. On Tikhonov Regularization, Bias and Variance in Nonlinear System Identification, Automatica, vol. 33, no. 3, pp. 441-446, March 1997.



Fonte: www.bae.unicamp.br - Probe - Elsevier

Resumo: sim

Artigo Completo: sim

Palavras-Chave: regularização, sistemas não-lineares, aproximação assintótica, dilema bias/variância, identificação de sistema

Comentários: os autores deste trabalho fazem uma discussão a respeito de como o método de regularização de Tikhonov é uma alternativa poderosa para regularização de problemas de identificação de sistemas não-lineares pela introdução da suavidade do modelo como uma informação a priori. Suas propriedades são discutidas em termos de uma análise de bias e variância.

Referência 258


Karkhanis, P.; Bebis, G. A performance evaluation of variations to the standard back-propagation algorithm, Conference Record of the Southcon/94, pp. 71-76, March 1994.

Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: validação cruzada, generalização, backpropagation, suavidade

Comentários: este paper apresenta uma comparação de desempenho empírica entre três técnicas de melhoria das capacidades de generalização de redes neurais do tipo backpropagation, que são o decaimento de pesos, validação cruzada e suavidade de pesos.
Referência 259

Koshizen, T.; Rosseel, Y.; Tonegawa, Y. A new EM algorithm using Tikhonov regularization, International Joint Conference on Neural Networks, IJCNN '99, vol. 1, pp. 413-418, July 1999.



Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: estimação por máxima verossimilhança, modelo Gaussiano misto, suavidade, generalização, função densidade estimada

Comentários: este paper propõe um novo algoritmo do tipo “expectation-maximization (EM)” utilizando a regularização de Tikhonov. Dois passos de aprendizado são envolvidos: primeiro, um algoritmo EM padrão é usado para obtenção de uma estimativa inicial dos parâmetros; a seguir, uma versão regularizada do algoritmo EM para melhorar a suavidade e propriedades de generalização da função densidade estimada.
Referência 260

Larsen, J.; Hansen, L.K. Generalization Performance of Regularized Neural Network Models, in Proceedings of the IEEE Workshop on Neural Networks for Signal Processing IV, pp. 42-51, 1994.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: sim

Artigo Completo: sim

Palavras-Chave: arquitetura de redes neurais, generalização, erro de generalização

Comentários: este paper faz a estimação do desempenho de generalização de modelos de redes neurais completos e regularizados. É derivada uma fórmula para a determinação dos pesos de regularização ótimos. Por fim, um novo estimador do erro de generalização é proposto. Este é um artigo largamente citado na literatura.
Referência 261

Lemm, J.C. Fuzzy rules and regularization theory, 6th European Congress on Intelligent Techniques and Soft Computing, EUFIT '98, vol.1, pp.250-254, 1998.



Fonte: www.bae.unicamp.br - ERL

Resumo: sim

Artigo Completo: não

Palavras-Chave: generalização, sistemas de aprendizado, funcionais convexas, aprendizado empírico

Comentários: a habilidade de generalização de sistemas de aprendizado empírico é essencialmente baseada em dependências entre os dados de treinamento conhecidos e futuras situações de teste. Essas dependências são parte da informação a priori necessária para qualquer aprendizado empírico. Neste paper discute-se os aspectos das medidas empíricas e controle da informação a priori.
Referência 262

Leung, C.T.; Chow, T.W.S. Adaptive regularization parameter selection method for enhancing generalization capability of neural networks, Artificial Intelligence, vol. 107, no. 2, pp. 347-356, February 1999.



Fonte: www.bae.unicamp.br - Probe - Elsevier

Resumo: sim

Artigo Completo: sim

Palavras-Chave: redes neurais, método de regularização, capacidade de generalização

Comentários: os autores deste paper propõem uma nova seleção do parâmetro de regularização, a fim de melhorar o desempenho do método de regularização. O método proposto evita a obtenção de soluções sub-ótimas indesejáveis.
Referência 263

Leung, C.T.; Chow, T.W.S. Least third-order cumulant method with adaptive regularization parameter selection for neural networks, Artificial Intelligence, vol. 127, no. 2, pp. 169-197, April 2001.



Fonte: www.bae.unicamp.br - Probe - Elsevier

Resumo: sim

Artigo Completo: sim

Palavras-Chave: regularização, capacidade de generalização, acumulador de terceira ordem

Yüklə 0,7 Mb.

Dostları ilə paylaş:
1   ...   12   13   14   15   16   17   18   19   ...   34




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin