Red neuronal Wavelet
Nombre: Cheng Zuhan
ID de estudiante: 19021210938
Introducción al ganado integrado Con la investigación continua sobre algoritmos de optimización, las redes neuronales han penetrado en muchos campos y han resuelto Muchos problemas prácticos y provocaron un pensamiento continuo por parte de los seres humanos. Este artículo analiza el conocimiento relevante de la red neuronal wavelet.
¿Red neuronal BP de nariz de vaca integrada? ¿Transformada Wavelet? Red neuronal Wavelet
Texto de vaca integrado
El proceso de implementación de la red BP se divide principalmente en dos etapas. La primera etapa es la propagación hacia adelante de la señal, desde la capa de entrada a través de la capa oculta hasta la capa de salida. La segunda etapa es la propagación hacia atrás del error, desde la capa de salida a través de la capa oculta hasta la capa de entrada. Una vez transmitido el error, los pesos y sesgos entre la capa de entrada y la capa oculta, y los pesos y sesgos entre la capa oculta y la capa de salida se ajustan en secuencia. Como se muestra en la Figura 1:
Las neuronas de la red neuronal BP se muestran en la Figura 2:
Entre ellas, la función de activación es la función sigmoidea y la expresión es:
2.1 Transformada Wavelet
La transformada Wavelet es un nuevo método de transformación matemática basado en el análisis de Fourier. Supera las limitaciones de la transformada de Fourier y la desventaja de que la transformada de Fourier en ventana es invariante. La transformada Wavelet logra principalmente un refinamiento de múltiples escalas mediante el escalado y la traducción, resaltando los detalles del problema a procesar y extrayendo información local de manera efectiva.
2.2 Red neuronal Wavelet
La red neuronal Wavelet es una red BP mejorada, que reemplaza la función de activación Sigmiod original de la capa oculta con una función wavelet: Morlet wavelet, su expresión es p>
El diagrama del modelo de la red neuronal wavelet de 4 capas diseñada en este artículo se muestra en la Figura 3:
2.3 Establecimiento del modelo
a.
En el diseño de red de la Figura 3, son la muestra de entrada, la muestra de salida, los nodos de la capa de entrada, la capa oculta y la capa de salida respectivamente, y son los pesos de conexión de cada nodo.
b. Cálculo directo
La entrada de la capa oculta 1 es la suma ponderada de todas las entradas: y la salida de la capa oculta 1 es. Las capas de entrada, salida y salida de las capas ocultas restantes son similares a 1 y no se describirán nuevamente aquí.
c. Propagación hacia atrás de errores
La propagación hacia atrás de errores utiliza el algoritmo de descenso de gradiente para ajustar los pesos entre cada capa, que es el proceso de corrección de peso. Hay dos formas de corregir el peso, una es corregirlo una por una de acuerdo con las muestras de entrada y la otra es corregirlo después de ingresar todas las muestras. Este artículo adopta el primer método.
Los pesos y factores wavelet se corrigen de acuerdo con la función de error. Para evitar que el algoritmo caiga en un mínimo local y acelerar su convergencia, el factor de impulso, la tasa de aprendizaje y las fórmulas se expresan como. siguiente:
Resumen: la red neuronal Wavelet tiene las ventajas de la transformada wavelet y evita la ceguera de la estructura de diseño de la red BP. Sin embargo, la cantidad de nodos en la capa oculta, los pesos entre cada capa y la inicialización. Los parámetros del factor de escala son difíciles de determinar, lo que afectará la velocidad de convergencia. En el aprendizaje posterior, puede probar otras redes neuronales con función wavelet y construir una red neuronal wavelet comparando sus resultados óptimos.