Main Content

newrb

Diseñar una red de base radial

Descripción

ejemplo

net = newrb(P,T,goal,spread,MN,DF) toma dos de estos argumentos:

  • P: matriz de R por Q de vectores de entrada Q

  • T: matriz de S por Q de vectores de clase objetivo Q

  • goal: objetivo de error cuadrático medio

  • spread: dispersión de funciones de base radial

  • MN: número máximo de neuronas

  • DF: número de neuronas que añadir entre muestras

Las redes de base radial se pueden usar para aproximar funciones. newrb añade neuronas a la capa oculta de una red de base radial hasta que alcance el objetivo de error cuadrático medio especificado.

Cuanto más grande sea spread, más suave será la aproximación de la función. Si una dispersión (spread) es demasiado grande, significa que se necesitan muchas neuronas para ajustar una función de cambio rápido. Si una dispersión (spread) es demasiado pequeña, significa que se necesitan muchas neuronas para ajustar una función suave, y la red podría no generalizar correctamente. Llame a newrb con diferentes dispersiones para encontrar el valor más adecuado para un problema concreto.

Ejemplos

contraer todo

Este ejemplo muestra cómo diseñar una red de base radial.

Diseñe una red de base radial con entradas P y objetivos T.

P = [1 2 3];
T = [2.0 4.1 5.9];
net = newrb(P,T);

Simule la red para una nueva entrada.

P = 1.5;
Y = sim(net,P)

Argumentos de entrada

contraer todo

Vectores de entrada, especificados como una matriz de R por Q.

Vectores de clase objetivo, especificados como una matriz de S por Q.

Objetivo de error cuadrático medio, especificado como un escalar.

Dispersión de funciones de base radial, especificada como un escalar.

Número máximo de neuronas, especificado como un escalar.

Número de neuronas que añadir entre muestras, especificado como un escalar.

Argumentos de salida

contraer todo

Nueva red de base radial, devuelta como un objeto de red

Algoritmos

newrb crea una red de dos capas. La primera capa tiene neuronas radbas, y calcula sus entradas ponderadas con dist y su entrada combinada con netprod. La segunda capa tiene neuronas purelin, y calcula su entrada ponderada con dotprod y sus entradas combinadas con netsum. Ambas capas tienen sesgos.

Inicialmente, la capa radbas no tiene neuronas. Los siguientes pasos se repiten hasta que el error cuadrático medio de la red quede por debajo de goal.

  1. La red se simula.

  2. Se encuentra el vector de entrada con el error más grande.

  3. Se añade una neurona radbas con pesos equivalentes a ese error.

  4. Se rediseñan los pesos de la capa purelin para minimizar el error.

Historial de versiones

Introducido antes de R2006a

Consulte también

| | |