. Механизмы и физические эффекты, ограничивающие точность измерений

10а. Фундаментальные ограничения. Квантовомеханические ограничения. Эти ограничения связаны с реализацией в измерительных системах соотношения Гейзенберга. В силу этого для минимальной мощности, которую можно передать за временной интервал из-за ограничения , получаем: . Предельная скорость передачи мощности в любой системе определяется электромагнитными ограничениями. Их суть (t =L/c)- в минимальной временной задержке на передачу информации по линии L из-за конечности скорости передачи информационного сигнала: см/с. Термодинамические ограничения. Пусть существует измерительная система, у которой необходимо повысить чувствительность, устранить шумы и минимизировать погрешности процесса измерений. Абсолютная температура системы стремится к 0, а число элементов выборки при измерениях- к бесконечности. Будет ли порог чувствительности стремится к 0? Определим минимальную энергию переключения инвертора ключевого элемента цифровой электронной схемы. Понятно, что эта энергия должна превышать фоновый порог. Пусть Pt— минимальная энергия переключения инвертора, где Р- управляющая мощность; t— время переключения(длительность управляющего импульса). Тогда Pt>>kT, т.е. больше теплового фона. Это есть связь минимальной управляющей энергии с температурой Т электронного газа. Казалось бы, справедлива след. логика рассуждений: заряд переносится электронами, тепловая энергия электронного газа равна 4kT, значит, если посредством выражения Pt>4kT устанавливать связь между температурой электронов и минимальной управляющей энергией, то уменьшая Т уменьшаем Рt и при Т, стремящейся к 0, Рt стремится к 0. Но на передачу и хранение информации (на объем информации), а значит и на требуемую минимальную энергию должны влиять ограничения согласно второму закону термодинамики: . При производстве информации  выделим изменение теплоты , что приведет к изменению энтропии . Для определения этого влияния в теории информации вводится информационная энтропия: , где f(x)- плотность функции распределения величины x; х- измеряемая величина (интегрирование проводится по всему пространству). В случае дискретного характера измеряемой величины информационную энтропию вводят так: , где — вероятность того, что система пребывает в i— состоянии. Возникновение к-либо кол-ва бит информации связано с тепловым фоном (температурой и изменениями тепловой энергии ), поэтому производство информации N вызывает изменения как энтропии, так и информационной энтропии. В случае дискретности величина х будет иметь n равновероятных значений. Из равной вероятности реализации каждого из них (), следуя определению, получаем для информационной энтропии выражение , где n— число возможных состояний системы. Между S и  установлена связь: , где Дж/К. Для бинарной системы производство информации в один бит увеличит энтропию в  Дж/К (S(1 бит)= ). Тогда создание информации в 1 бит вызывает . Энтропия обращается в 0, если состояние системы достоверно (р=1): . До измерений энтропия была , после-0, значит . Количество получаемой информации при выяснении состояния системы равно

Ссылка на основную публикацию
Adblock detector