Bueno expongo el problema a ver si consigo una solución. Tengo que procesar la señal de un fotodiodo que tras pasa un filtro anti-aliasing llega al conversor de un micro MSP430, es un conversor sigma-delta de 16 bit cuyo diagrama de funcionamiento aporto en las imagenes. Mi problema es que para un mismo valor de tensión el valor digital oscila demasiado y no sé que estoy haciendo mal. Utilizo una alimentación simple, por lo que la conversión es unipolar y se puede hacer la conversión en un modo continuo o simple, pero no creo que sea relevante. El margen dinámico o Vfs es 0.6 V. Creo que el problema lo tengo en la ganancia del conversor, o en la frecuencia de muestreo. Ahora estoy midiendo en continua por lo que la frecuencia no importa que sea muy baja, pero tengo que programarlo para medir en alterna también. En definitiva, para que no oscile tanto para un valor fijo de tensión que debo hacer.
Si supuestamente para 0.6V el valor digital es 65535, por ejemplo para un valor de 0.1678 me oscila entre 18328 18500 17900, entonces si varío la tensión un poco a 0.1690 los valores se me pisan y no puedo distinguirlo bien. Necesitaría que esa variación de tensión sea más pronunciada en los valores digitales para que no se pisen.
Si supuestamente para 0.6V el valor digital es 65535, por ejemplo para un valor de 0.1678 me oscila entre 18328 18500 17900, entonces si varío la tensión un poco a 0.1690 los valores se me pisan y no puedo distinguirlo bien. Necesitaría que esa variación de tensión sea más pronunciada en los valores digitales para que no se pisen.