Информационные характеристики и точность измерительных


Приборов и систем

С позиций теории информации под точностью измерительного прибора или системы подразумевается возможность обеспечить в выходном сигнале необходимое количество измерительной информации о действительном значении входного сигнала.

При определении количества информации в выходном сигнале прибора или системы все точностные характеристики необходимо приводить к единому объективно обоснованному показателю – эквивалентному числу делений, ступеней, квантов в рабочем диапазоне входного сигнала, названному П. В. Новицким информационной способностью измерительного устройства [9, 10].

Носителем измерительной информации является энергия или вещество. Без получения энергии (прямого или косвенного) от источника информации, собственно, невозможно измерительное преобразование. Но процесс получения и преобразования измерительной информации сопровождается действием случайных возмущений и помех и вносимой ими дезинформацией в процессе измерения.

Анализируя дезинформационные действия случайных помех с различными законами распределения вероятностей К. Шеннон пришел к выводу [9], что вносимая помехой ξ дезинформация определяется не только мощностью этой помехи, т. е. ее среднеквадратическим значением σξ, но еще зависит от вида закона распределения этой помехи.

Если помеха ξ статистически не зависит от сигнала x, то аддитивное действие помехи на сигнал может быть определен ее энтропией, т. е. интегральной функцией, определяющей средневзвешенную меру дезинформации, дополнительной неопределенности выходного сигнала измерительного прибора (системы)

(2.36)

 

Согласно [9] количество информации I определяется как разность безусловной H(x) и условной H(x/xп) энтропий значений измеряемой величины, т.е.

 

(2.37)

 

Безусловная энтропия H(x) – это энтропия значений измеряемой величины x до ее измерения, которая численно характеризует априорную, т. е. исходную неопределенность, неизвестность случайного входного сигнала. Она определяется в соответствии с выражением

 

(2.38)

 

Условная энтропия H(x/xп) измеряемой величины x представляет неопределенность действительного ее значения в интервале неопределенности вокруг полученного после измерения показания xп, т. е. энтропии погрешности Δx

(2.39)

 

Рассмотрим особенности определения количества информации на примере, в котором измеряемая величина x в пределах от x1 до x2 имеет равномерный закон распределения , а также и равномерное распределение погрешности Δx в интервале неопределенности d=2Δx (xп±Δx, где xп – выходной сигнал), получим

 

(2.40)

 

Тогда количество измерительной информации I на выходе прибора определится соотношением

 

(2.41)

 

где – число различимых градаций входного сигнала или число эквивалентных делений, различимых в диапазоне x2x1 при данном законе распределения; dэ – эквивалентное (в энтропийном смысле) деление.

Значение эквивалентного интервала неопределенности dэ можно математически строго определить для любого закона распределения погрешности [ ].

При практическом использовании удобно оперировать с половиной интервала dэ=2Δэ, где Δэ принято называть энтропийным значением погрешности.

Отношение энтропийного значения Δэ случайной погрешности к ее среднеквадратическому значению σ называется энтропийным коэффициентом

(2.42)

 

Для равномерного закона распределения энтропийное значение погрешности Δэ равно и кэ =1,73. Для нормального распределения 2,07, а для треугольного закона (распределение Симпсона) 2,02.

Практически если использовать оценку погрешности в виде максимального значения из серии 20¸30 наблюдений, то она наиболее близка к энтропийному значению погрешности Δэ, так как для нормального закона распределения при Pд=0,961 Δд= Δэ, для равномерного при Pд=1 Δд= Δэ.

Использование энтропийного значения погрешности Δэ и энтропийного коэффициента кэ для нормального закона распределения позволяет получить простую и строгую зависимость между мощностью помехи σ2 и вносимой ею дезинформацией H(x/xп) или с получаемым при измерении количеством информации I в виде:

 

(2.43)

 

(2.44)

 

Важнейшей характеристикой измерительных устройств является информационная производительность, т. е. количество информации, получаемое за единицу времени

Jп= ω I, (2.45)

где ω – диапазон частот сигналов, пропускаемых измерительным устройством.

Например, измерительные приборы классов точности 0,5; 1; 4 с полосой пропускания ω=50, 100 и 300 1/с характеризуются соответственно числом различимых градаций

 

 

обеспечивает соответственно для каждого случая следующее количество информации

I= ln N = 6,67; 5,7; 3,9 бит

и информационную производительность: Jп= ω I= 333; 570; 1200 бит/с.



Дата добавления: 2020-10-25; просмотров: 196;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.009 сек.