Pesquisa Bibliográfica



Yüklə 0,7 Mb.
səhifə21/34
tarix28.10.2017
ölçüsü0,7 Mb.
#19393
1   ...   17   18   19   20   21   22   23   24   ...   34

Comentários: os autores deste paper estabelecem uma relação entre a teoria de regularização e redes neurais morfológicas de pesos compartilhados (MSNN). Eles mostram que certas classes deste tipo de rede neural sem unidades ocultas podem ser vistas como redes neurais de regularização.

Referência 332


Girosi, F. Regularization theory, Radial Basis Functions and networks, In From Statistics to Neural Networks, Theory and Pattern Recognition Applications. Subseries F, Computer and Systems Sciences, pp. 166-187, Springer-Verlag, Berlin, 1994.

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: funções de base radial, suavidade, redes neurais

Comentários: a fonte não dispõe do resumo ou texto completo do artigo.


Referência 333


Girosi F.; Jones M.; Poggio T. Regularization Theory and Neural Networks; MIT Cambridge; AI Memo 1430, 1993.

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: funções de base radial, suavidade, redes neurais

Comentários: neste paper, os autores fazem uma cuidadosa discussão a respeito da utilização da teoria da regularização em redes neurais. Este artigo é baseado em outras publicações dos mesmos autores.

Referência 334


Girosi, F.; Jones, M.; Poggio, T. Regularization theory and neural networks architectures. Neural Computation, vol. 7, no. 2, pp. 219-269, march 1995.

Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: sim

Artigo Completo: sim

Palavras-Chave: funções de base radial, suavidade, esquemas de aproximação, splines, redes de regularização

Comentários: este paper mostra como as redes de regularização abarcam uma gama muito maior de esquemas de aproximação, incluindo muitos dos populares modelos aditivos gerais e algumas das redes neurais. Em particular, são introduzidas novas classes de funções de suavidade que levam a diferentes classes de funções de base.
Referência 335 (livro)

Haykin, S. Neural Networks: a comprehensive foundation, pp. 245-256, Macmillan Publishing Company, Englewood Cliffs, New Jersey, 1994.



Fonte: BAE - Biblioteca da Área de Engenharia/Unicamp

Palavras-Chave: problemas mal-condicionados, suavidade, regularização, termo de regularização, funções de Green.

Comentários: o autor aborda a base da teoria da regularização, apresentando seu histórico e princípios matemáticos. Apresenta também a solução para o problema da regularização, ilustrando-a com exemplos. A seguir, ele aborda as funções de Green e Gaussianas Multivariáveis. Por fim, há uma breve discussão a respeito das redes de regularização apresentadas por Poggio e Girosi, cuja referência se encontra mais adiante neste trabalho.
Referência 336

Hegland, M. An optimal order regularization method which does not use additional smoothness assumptions, SIAM J. Numer. Anal. 29, pp. 1446-1461, 1992.



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: não

Artigo Completo: não

Palavras-Chave: suavidade, teoria da regularização de Tikhonov

Comentários: o autor deste artigo apresenta um método para determinação de uma ordem de regularização ótima sem a necessidade de se aumentar a complexidade do algoritmo através da adoção de um maior número de restrições de suavidade.

Referência 337

Hinestroza, D.; Murio, D.A.; Zhan, S. Regularization Techniques for Nonlinear Problems, Computers & Mathematics with Applications, vol. 37, no. 10, pp. 145-159, May 1999.



Fonte: www.bae.unicamp.br - Probe - Elsevier

Resumo: sim

Artigo Completo: sim

Palavras-Chave: operadores não-lineares implícitos, problemas mal-condicionados não-lineares, regularização, método adjunto

Comentários: os autores deste artigo consideram a análise dos problemas de regularização em espaço de estado para operadores não-lineares implícitos. São apresentados resultados quanto à existência, estabilidade e taxas de convergência para a técnica de regularização. Alguns exemplos numéricos são apresentados.

Referência 338 (livro)


Husmeier, D. Neural Networks for Conditional Probability Estimation, pp. 117, 137-163, 180-181, Springer-Verlag, London, 1999

Fonte: BAE/UNICAMP

Palavras-Chave: problemas mal-condicionados, suavidade, regularização

Comentários: este livro faz uma ampla abordagem sobre regularização, apresentando toda a fundamentação matemática, escolha ótima para os parâmetros, etc. Se dedica principalmente à regularização Bayesiana, faz também uma breve discussão a respeito de outros esquemas de regularização. A matemática apresentada no livro é bastante pesada.
Referência 339

Karwowski, W.; Koshmanenko, V. Singular Quadratic Forms: Regularization by Restriction, Journal of Functional Analysis, Vol. 143, No. 1, January 1, 1997.



Fonte: www.bae.unicamp.br - Probe - Academic Press

Resumo: sim

Artigo Completo: sim

Palavras-Chave: regularização, restrições, espaço de Hilbert

Comentários: neste paper, é definida uma ampla classe de formas quadráticas que é densamente definida, simétrica, e singular no espaço de Hilbert. É apresentada a construção de restrições regulares que são também densamente definidas e simétricas. Os autores dão também algumas aplicações para a teoria da perturbação singular de operadores auto-adjuntos.
Referência 340

Kelly, J.D. A regularization approach to the reconciliation of constrained data sets, Computers & Chemical Engineering, vol. 22, no. 12, November 1998, pp. 1771-1788.



Fonte: www.bae.unicamp.br - Probe - Elsevier

Resumo: sim

Artigo Completo: sim

Palavras-Chave: reconciliação de dados, matriz de projeção, regularização, inversos generalizados

Comentários: este paper apresenta uma nova solução iterativa para o ajuste estatístico de conjuntos de dados com restrições. O método é geral e pode ser aplicado para qualquer problema de mínimos quadrados ponderados contendo restrições de igualdade não-lineares. Outro procedimento para classificação de variáveis redundantes que não requerem a computação explícita da matriz de projeção é também apresentado.
Referência 341

Keren, D.; Werman, M. A Bayesian framework for regularization, Proceedings of the 12th IAPR International Conference on Pattern Recognition, Conference C: Signal Processing, vol. 3, pp. 72-76, October 1994.



Assunto: Reconhecimento de Padrões

Fonte: base de dados IEEE/IEE - BAE

Resumo: sim

Artigo Completo: sim

Palavras-Chave: métodos de Bayes, suavidade, estimação MAP, distribuição de probabilidade, processamento de imagens

Comentários: a regularização busca uma função de interpolação que esteja próxima dos dados e que seja “suave”. Esta função é obtida pela minimização de uma função de erro. Porém, o uso de apenas um conjunto de pesos não garante que a função seja uma estimativa ótima. A solução sugerida neste paper é dada através de uma abordagem Bayesiana.
Referência 342

Larsen, J.; Hansen, L.K. Regularization of Neural Networks, 1996 citeseer.nj.nec.com/39077.html



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: sim

Artigo Completo: sim

Palavras-Chave: otimização, conjunto de validação, gradiente

Comentários: este paper sugere uma melhora no desempenho de redes neurais através da otimização da quantidade de regularização, usando uma abordagem baseada em um conjunto de validação. Os parâmetros do termo de regularização são estimados por um esquema de gradiente descendente.
Referência 343

Larsen, J.; Hansen, L.K.; Svarer, C.; Ohlsson, M. Design and Regularization of Neural Networks: The Optimal Use of A Validation Set, In Proceedings of the IEEE Workshop on Neural Networks for Signal Processing VI, pp. 62-71, 1996



Fonte: ResearchIndex (CiteSeer): http://citeseer.nj.nec.com/

Resumo: sim

Artigo Completo: sim

Palavras-Chave: parâmetros de regularização, gradiente, redes feedforward

Comentários: este paper deriva novos algoritmos para estimação de parâmetros de regularização e para a otimização de arquiteturas de redes neurais baseadas em um conjunto de validação. Os parâmetros de regularização são estimados usando um esquema iterativo de gradiente descendente. A otimização da arquitetura é feita através de uma busca combinatória aproximativa.
Referência 344

Leung, C.T.; Chow, T.W.S. Adaptive regularization parameter selection method for enhancing generalization capability of neural networks, Artificial Intelligence, vol. 107, no. 2, pp. 347-356, February 1999.



Fonte: www.bae.unicamp.br - Probe - Elsevier

Resumo: sim

Artigo Completo: sim

Palavras-Chave: redes neurais, método de regularização, capacidade de generalização

Comentários: os autores deste paper propõem uma nova seleção do parâmetro de regularização, a fim de melhorar o desempenho do método de regularização. O método proposto evita a obtenção de soluções sub-ótimas indesejáveis.


Yüklə 0,7 Mb.

Dostları ilə paylaş:
1   ...   17   18   19   20   21   22   23   24   ...   34




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin