pero al fin de cuentas que quieres hacer con la red neuronal?...
la varianza quiere decir que tanto varia una señal con respecto a otra, lo que hace la red es tomar un grupo de ejemplos y de estos aprender a identificarlo para luego clasificar....
necesitas definir una matriz que seran tus patrones la cual debes dividir en un porcentaje de entrenamiento otro para test y otro para validacion, y otra matriz para tus target que deben ser correspondientes a tus patrones...
bueno te lo voy a explicar como yo lo he hecho.
red=newff(Pe,Te,[100 50],{'tansig','tansig','tansig'},'trainscg'); %Instruncción para crear una red feedforward
%Los parámetros ingresados a la red creada son:
%El primer parámetro son los patrones o ejemplos para le proceso de
%aprendizaje (Pe), la herramienta de Matlab determina la dimensión
%de entrada del problema de clasificación, a partir del número de filas de
%la matriz Pe.
%El segundo parámetro corresponde a los targets o salidas deseadas (el
%proceso de aprendizaje es supervisado), a partir de esta matriz o vector
%la herramienta determina el número de salidas de la red.
%Con el tercer campo de parámetros se configura el número de capas ocultas
%y el número de neuronas de cada capa oculta [# de neuronas primera capa
%oculta # de neuronas segunda capa oculta ..... # de neuronas n-ésima
%capa oculta]
%Con el cuarto campo se configura el tipo de función de transferencia de
%cada capa (ocultas y de salida)
%El quinto campo configura la función de entrenamiento de la red,
%'traingd' es el algoritmo de gradiente descendente, solo se configura el
%parámetro de 'lr' rata de aprendizaje; 'traingdm' es el algoritmo de
%gradiente descendente con momento se configura 'lr' y 'mc' parámetro de
%momento; 'traingda' es el algoritmo de gradiente descendente con 'lr'
%variable, se configura los parámetros de 'lr_inc' 'lr_dec'; 'traingdx'
%el mismo algoritmo anterior pero con momento. Del algoritmo de gradiente
%conjugado hay varios métodos, cada uno tiene parámetros para configurar,
%pero dependen de concer adecuadamente los métodos, entre ellos se resaltan
%'traincgf' actualización Fletcher-Reeves, 'traincgp' actualización
%Polak-Ribiére, 'traincgb' actualización Powell-Beale, 'trainscg'
%gradiente conjugado escalado. 'trainbfg' algoritmo de Quasi-Newton es una
%alternativa al gradiente conjugado. Otro algoritmo utilizado
%frecuentemente es el algoritmo de Levemberg-Maquardt 'trainlm'. Los
%problemas alrededor de estos algoritmo son el costo computacional y el
%almacenamiento de la información cuando se manejan muchos datos.
%Con la instrucción help newff pueden ver otras parámetros configurables a
%para crear una red feedforward
red.adaptFcn='trains'; %entrenamiento batch, 'trains' entrenamiento secuencial
red.divideFcn='dividerand'; %Este campo permite configurar la función que
red.divideParam.trainRatio=0.8; % (80%) de ejemplos para ntrenamiento
red.divideParam.valRatio=0.1; %porcentaje (10%) de ejemplos para validación
red.divideParam.testRatio=0.1; %validacion
red.trainParam.lr=0.01; %rata de aprendizaje
red.trainParam.mc=0.29; %configura el parámetros momento
%red.trainParam.lr_inc=1.1; %configura el parámetro de incremento de la
%rata de aprendizaje variable
%red.trainParam.lr_dec=0.25; %configura el parámetro de decremento de la
%rata de aprendizaje variable
red.trainParam.goal=0.0001; %valor mínimo deseado del error cuadrático medio
%parámetro de parada el proceso de aprendizaje
red.trainParam.epochs=1500;
[red,tr,Y,E]=train(red,Pe,Te); %Instrucción para el entrenamiento de la red
finalmete utilizas sim(red,evalua); donde evalua es cualquiere ejemplo que quieres saber si lo identifica o no, creo que retorna un 1 si lo clasico y -1 si no lo clasifico asi sabes si la red apendio o no.... suerte