Aunque en el concierto científico aún no se ha logrado consenso en definir qué es la consciencia, cómo funciona o cual es su labor principal


Arquitectura de las redes neuronales



Yüklə 382,57 Kb.
səhifə5/9
tarix19.01.2018
ölçüsü382,57 Kb.
#39330
1   2   3   4   5   6   7   8   9

Arquitectura de las redes neuronales


Como se mencionó en el punto anterior cada red neuronal debe buscar su arquitectura óptima utilizando un algoritmo genético como algoritmo de aprendizaje. Sin embargo, es necesario entregar a la red un espacio de soluciones factibles para que el aprendizaje finalice en algún momento. En consecuencia, la arquitectura máxima en términos de slabs y conexiones y neuronas se detalla a continuación:

  1. Número slabs en la capa de entrada: 1

  2. Número de capas ocultas: 2, a saber, la A y la B.

  3. Número de slabs en cada capa oculta: 3

  4. Número de slabs en la capa de salida: 1

  5. Máximo de conexiones entre la capa de entrada y capa oculta: 6, 1 conexión por cada slab de la capa oculta.

  6. Máximo de conexiones entre las capas ocultas: 9. Los slabs en la capa oculta A no se conectan entre sí, así como tampoco lo hacen los de la capa oculta B.

  7. Máximo de conexiones entre la(s) capa(s) oculta(s) y la capa de salida: 6, es decir, pueden existir conexiones desde cada slab en las capas A y B y el slab de la capa de salida.

  8. Las conexiones sólo se realizan hacia delante, es decir, desde la capa de entrada hacia la capa oculta y desde esta hacia la capa de salida, nunca a la inversa. Tampoco se permite que existan conexiones donde un output de la capa oculta B sea input de la A.

  9. Número de neuronas en cada slab de la capa oculta: determinadas aleatoriamente para cada modelo, con un mínimo de 5 y un máximo de 15 neuronas.


Figura 1: Posible solución en la Arquitectura Óptima de la Red Neuronal.

Se muestra un ejemplo de la arquitectura de podría tomar una red neuronal en su proceso de optimización a través de la conciencia. Cualquiera de los slabs de la capa oculta podría no incluirse si es necesario.




  1. Funciones de Transferencia y Otras Características


Cada uno de los slabs en cada capa oculta tiene asociado una única función de transferencia. Utilizando la nomenclatura de la figura 1, las funciones de transferencia se distribuyen como sigue:

  1. A1: Tangente Sigmodeana (tansig)

  2. A2: Lineal (purelin)

  3. A3: Complemento Gaussiana (comgaussiana)

  4. B1: Radial Basis (radbas)

  5. B2: Tangente Sigmodeana (tansig)

  6. B3: Complemento Gaussiana (comgaussiana)

  7. S: Lineal (purelin)

Otras características de las redes que se entrenaron son:

  1. Algoritmo de Entrenamiento: Resilient Backpropagation (Trainrp). Se utiliza en este estudio un algoritmo de retropropagación porque en estudios anteriores ha quedado demostrado que las redes neuronales supervisadas tienen un buen desempeño con series de tiempo.

  2. Función de desempeño para evaluar entrenamiento: Sum Squared Error (sse)

  3. Función de Adaptación: Incremental Training (Trains)

  4. Función de Inicialización de Parámetros: Layer-by-layer network initialization function. (Initlay).
  1. Evaluación de la capacidad predictiva de las redes neuronales y análisis comparativo


Cada uno de los modelos de proyección generados fue estimado y validado a partir de los datos del conjunto de entrenamiento. Este proceso fue seguido por una evaluación empírica sobre la base de los datos del conjunto extramuestral4. En esta etapa, el desempeño relativo de los modelos fue medido por el número de predicciones correctas (hits) del signo del retorno del índice. Así, al igual que Kanas (2001), la proyección extramuestral fue testeada en función de su precisión direccional (directional accuracy, DA), a través de la prueba de signo. Para examinar la precisión direccional se empleó el test de Pesaran & Timmermann (1992), el cual compara el signo de la proyección, , con el del valor observado, , para cada i-ésima observación del conjunto extramuestral (i=1,2, ..., 131), donde el signo indica la dirección en que se moverá el mercado accionario: al alza, si es positivo, o a la baja, si es negativo. Si los signos coinciden, aumenta la efectividad de la red, y en caso de no existir coincidencia, aumenta el error de predicción de la red.

El ratio de éxito (SR) se define como:



(2)

donde Ii[.] es una función indicador que toma el valor de 1 cuando su argumento es cierto y 0 en otro caso. Además:



(3)

y

(4)

El ratio de éxito en el caso de independencia de y , SRI, está dada por:

(5)

cuya varianza es:



(6)

Por su parte, la varianza de SR se define como:



(7)

Finalmente, el test DA de Pesaran & Timmermann (1992) está dado por:



(8)

Además, los resultados de los modelos de redes neuronales analizados serán comparados con los de un modelo ingenuo o AR(1), el cual se presenta en la ecuación (9).



(9)

donde representa el término de error, y es el coeficiente que acompaña a la variable explicativa.





  1. Yüklə 382,57 Kb.

    Dostları ilə paylaş:
1   2   3   4   5   6   7   8   9




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin