О соотношении неопределенностей в диаде информация - время и значении его константы
Автор: Клименко Игорь Семенович, Палкин Евгений Алексеевич
Рубрика: Управление сложными системами
Статья в выпуске: 4, 2021 года.
Бесплатный доступ
Рассмотрено соотношение неопределенностей в паре информация - время для квантового уровня представления и регистрации информации. Обсуждены условия, обеспечивающие возможность регистрации информации, несомой микросостоянием системы. Естественным образом введена константа, характеризующая взаимосвязь неопределенности (неточности) измерения результата генерации и/ или обмена информацией с длительностью этого процесса при заданной температуре.
Соотношение неопределенностей, информационная энтропия, термодинамическая энтропия, макроинформация, микроинформация
Короткий адрес: https://sciup.org/148323200
IDR: 148323200 | DOI: 10.18137/RNU.V9187.21.04.P.080
Текст научной статьи О соотношении неопределенностей в диаде информация - время и значении его константы
В работе [5] обсуждалось соотношение неопределенности информация – время, возникающее при решении оптимизационной задачи принятия решения в условиях ограниченного промежутка времени. Анализ взаимосвязи параметров, характеризующих степень неопределенности ситуации принятия решения и длительность промежутка времени, затрачиваемого на анализ ситуации, возможных альтернатив и синтез адекватной модели этой ситуации, естественным образом привел к соотношению
A H реш А t c ® const при A tc < t доп , (1)
где ∆H реш – остаточная энтропия (степень неопределенности) решения; ∆t с – промежу-ток времени, затрачиваемый на принятие (генерацию) решения в пределах его допустимого значения t доп.
Остаточную энтропию ∆H решследует понимать как отклонение принятого решения от «идеального» модельного решения, обеспечивающего гарантированное полное достижение целевой установки (единичную вероятность достижения цели). Поэтому, следуя [1; 8], ценность информации, отсутствующей в выбранном решении по отношению к «идеальному» решению, можно определить соотношением
A I = log 2-^, (2)
P ðåø
О соотношении неопределенностей в диаде информация – время и значении его константы
Клименко Игорь Семенович доктор физико-математических наук, профессор, профессор кафедры информационных систем в экономике и управлении. Российский новый университет, Москва. Сфера научных интересов: теория систем, теория информации, теория принятия решений, физическая оптика, экология. Автор более 160 опубликованных научных работ.
где Р реш - вероятность достижения цели при выбранном решении.
Формула (2) является базовой для определения на основе термодинамических принципов (см. ниже) остаточной энтропии решения как степени неадекватности выбранного решения реальной ситуации его принятия. Промежуток времени принятия решения ∆t с = [ t 0, t ] определим от момента возникновения ситуации принятия решения до момента его доведения до объекта управления. При этом «внешние условия», или макроскопические характеристики принимающей решение системы, на указанный промежуток времени считаются фиксированными.
Ситуация, описываемая соотношением (1), постоянно возникает в реальной жизнедеятельности, когда дефицит информации комбинируется с дефицитом времени, отпущенным на принятие решения.
Интерпретация (1) в общем случае (без учета лимита времени) приводит к утверждению: чем меньше времени затрачивается на получение информации для принятия решения, тем больше остаточная неопределенность (энтропия) такого решения. В общем случае можно сформулировать следующее положение: чем меньше времени затрачивает система на обмен информацией с окружающей средой и/или генерацию информации, тем выше остаточная неопределенность полученных сведений относительно цели решения, причем
A H I -A t >К , (3)
где ∆ t есть минимальный промежуток времени, необходимый для принятия решения с допустимой остаточной энтропией ∆ HI .
Подчеркнем важное обстоятельство, которое состоит в том, что в задаче принятия решения мы оперируем макроскопической информацией, регистрируемой (фиксируемой) на материальном носителе. Тем самым мы отталкиваемся от определения информации, предложенного Д.С. Чернавским [9], согласно которому информация есть запомненный (зафиксированный) результат выбора одной альтернативы из нескольких возможных и априори равноправных. Поэтому ∆HI в (3) будем рассматривать именно как информационную энтропию, в данном случае – разность между максимальной априорной энтропией и энтропией, устраненной за промежуток времени ∆t, то есть сгенерированной или полученной извне информацией.
Ниже будет рассмотрена микроскопическая информация, не обладающая свойством запоминания в силу чрезвычайно высокой частоты тепловых флуктуаций.
Выражение (3) будем интерпретировать как макроскопическое соотношение неопределенностей информация – время, обращая при этомвнимание на его формальную аналогию с соотношением неопределенностей Гейзенберга энергия – время [7; 10]:
A E -A t > Й , (4)
где Й - постоянная Планка.
В обоих сравниваемых случаях на практике мы имеем дело с оптимизационной задачей. Действительно, на экспериментальном уровне квантовой физики ищется компромисс между неопределенностью (неточностью) измерения энергии микрообъекта и продолжительностью ее измерения. В рамках задачи принятия решения ищется компромисс между неопределенностью (неточностью) измерения количества ценной информации и длительностью процесса ее измерения.
В настоящей работе сосредоточено внимание на известном подходе к интерпретации (4), согласно которой ∆Е есть максимальная точность определения энергии квантовой системы, достижимая в процессе ее измерения длительностью ∆t . Отсюда следует, что для измерения энергии с погрешностью (неопределенностью) ∆Е необходимо время, не меньшее A t ® Й / A E .
Аналогичным образом ∆H I в (3) определяет максимальную точность (адекватность) информации относительно ситуации принятия решения, достижимую в процессе ее измерения длительностью ∆ t . Соответственно, для измерения (генерации, приема-передачи) определенного количества информации с погрешностью (неопределенностью) ∆H I необходимо время, не меньшее ∆ t ≈Κ / ∆ HI .
Отметим также, что сформулированное положение не противоречит и другим вариантам интерпретации соотношения неопределенности энергия – время.
Определение значения и размерности параметра Κ
Для определения значения и размерности введенного в (3) параметра Κ необходимо рассмотрение информационных процессов на элементарном (микроскопическом) уровне. Обмен информацией в количестве 1 бит происходит в процессе снятия неопределенности относительно исхода реализации одного из двух дискретных равновероятных событий (например, при обмене фотонами или переходе электрона из основного состояния в возбужденное, и наоборот). При наличии в общем случае N вариантов исхода опыта количество информации определяется мерой Хартли Hr = log2 N .
С другой стороны, с позиций термодинамики всякая сложная система, обладающая множеством возможных микросостояний при заданных макроскопических характеристиках, характеризуется физической (термодинамической) энтропией H T:
H t = k - In ( Г ) , (5)
где k - постоянная Больцмана, Г -статистический вес макроскопического состояния, характеризующий неопределенность текущего микросостояния системы. При этом вероятность априорной идентификации микросостояния обратно пропорциональна статистическому весу. Обмен энергией и энтропией системы с окружающей средой приводит
О соотношении неопределенностей в диаде информация – время и значении его константы к изменению статистического веса, а значит, к изменению меры неопределенности в микросостоянии. Полагая, что такое изменение в конечном счете может быть связано с получением некоторой информации для более точного задания микросостояния (или с потерей информации, ведущей к росту информационной энтропии), из (5) можно получить следующее соотношение [9]:
A HI = A HT = k-A In (Г ) = - k — , (6) log2 e где A HT и AI - изменение количества термодинамической энтропии и информации соответственно, а использование логарифма числа е связано с возможностью перехода к натуральной единице информации, нат, в определении Хартли.
Следует подчеркнуть, что получение системой информации (уменьшение информационной энтропии) возможно только в открытой системе и всегда сопровождается увеличением термодинамической энтропии в окружающей среде.
Также отметим крайне важное обстоятельство: переходя на микроуровень, мы начинаем оперировать микроинформацией, отражающей снятие неопределенности относительно случайного микросостояния системы при зафиксированном ее макросостоянии. Очевидно, что отождествлять эту информацию с макроинфомацией неправомерно, в частности в связи с тем, что микроинформация свойством запоминания не обладает. Действительно, рецепция (фиксация) информации состоит в переводе системы в определенное устойчивое состояние, в то время как частота тепловых флуктуаций, стирающих микроинформацию, имеет порядок 10–13 с–1.
Однако при уменьшении температуры, когда тепловые флуктуации становятся низкоэнергетическими и при определенных условиях не могут повлиять на микросостояние системы, появляется возможность фиксации информации на микроуровне. С приближением температуры системы к абсолютному нулю проявляется эффект приобретения микроинформацией свойства запоминаемости (регистрируемости), характерного для макроинформации. Иными словами, можно говорить о переходе микроинформации в нестираемое состояние на продолжительный промежуток времени.
Тогда применительно к запоминаемой микроинформации можно оперировать информационной энтропией, поскольку процесс регистрации касается перехода системы между устойчивыми дискретными состояниями. Появление ограниченного набора дискретных состояний позволяет обеспечить запись и хранение на микроуровне системы ценной (осмысленной) информации. При этом в отличие от микроинформации, связанной с огромным количеством возможных микросостояний, число устойчивых состояний оказывается несравнимо малым.
Поскольку количественная связь между изменением термодинамической энтропии и генерацией новой ценной информации (макроинформации) в классических определениях не просматривается [9], далее можно ограничиться учетом только информационной энтропии.
Таким образом, задача определения значения и размерности величины К переходит в область фиксации информации на микроуровне. При этом можно считать, что на микроуровне в определенном интервале температуры (значений средней энергии частиц) микросостояния приобретают свойство регистрируемости, позволяющее в принципе сохранять и обрабатывать осмысленную информацию.
Сопоставим (6) с соотношением неопределенностей Гейзенберга (4) для компонент энергия – время. Если считать, что в результате обмена с внешней средой изменяется только информационная энтропия системы (и, соответственно, информация), то для изменения ее энергии справедливо соотношение
∆E = T∆HI ,(7)
где Т – абсолютная температура системы.
Тогда неравенство (4) примет вид
TAHI-At>Й .(8)
Следовательно,
AH,-At>K = - .(9)
I T
Подставляя в (8) значение ∆ HI из (6), получим
∆ I
T A HI -At = kT -At > Й .(10)
log2 e
Подчеркнем, что здесь в отличие от формул (6) и (7) символ ∆… означает не изменение величин, а неопределенность в их задании, поэтому используется модуль соотношения (6). Отметим также, что энергию теплового кванта kТ можно интерпретировать как минимальную порцию энергии, которую необходимо затратить на получение одного нат информации. Соответственно, kТ/ 1,44 – минимальная энергия теплового кванта, затрачиваемая на получение одного бит информации.
Как известно [2], при этом соответствующее локальное уменьшение информационной энтропии сопровождается увеличением термодинамической энтропии системы в целом, то есть ∆ HT >≈ ∆ HI , что отражено в (6).
Окончательно для оценки связи неточности в задании (получении) информации с неточностью измерения временных характеристик справедливо соотношение
∆I kT -At> Й,(11)
log2 e или
Й 1
∆I⋅∆t≥log2 e⋅ ⋅ .(11
kT
Возникающая в этом соотношении константа κ с размерностью бит ⋅ с ⋅ К, имеет значение к = log2 e-y^ 1,14-10-11.(12)
k
Как видим, полученная константа представляет собой отношение двух фундаментальных констант – постоянной Планка и постоянной Больцмана. Она характеризует взаимосвязь на квантовом уровне неопределенности (неточности) измерения результата обмена фиксируемой информацией и длительности этого процесса при заданной температуре.
В частности, для ошибки измерения количества информации в 1 бит при нормальной температуре (300 К) оценка точности фиксации времени обмена информацией составит около 40 фемтосекунд:
A t > 1,14 - 10 - 11--— * 38 - 10 - 15 c, (13)
300 ⋅ 1
О соотношении неопределенностей в диаде информация – время и значении его константы что соответствует времени тепловых флуктуаций в нормальных условиях. С другой стороны, при таком порядке длительности процесса обмена неопределенность фиксации (измерения) количества информации будет составлять 1 бит.
Обсуждение
Из формального анализа (11) и (13) следует, что с уменьшением температуры системы промежуток времени Δ t , необходимый для измерения количества информации с точностью до 1 бит, растет, то есть растет неопределенность (ошибки) в передаче и регистрации информации.
Однако когда речь идет о значениях температуры, близких к абсолютному нулю, в любой системе число возможных микросостояний существенно сокращается, и они в смысле фиксации информации приобретают свойства, характерные для макросостояний. Тогда температура системы отражает энергию частиц, участвующих в информационном обмене. Именно такие условия необходимы для обеспечения возможности регистрации информации; причем как для статистики Бозе – Эйнштейна, так и для статистики Ферми - Дирака среднее число частиц на уровне энергии Е при T ^ 0 задается классическим распределением Максвелла – Больцмана [3; 4; 6]:
n ( E ) — exp |- E - M L g - (14)
V kT У
Здесь n ( E ) - среднее значение числа частиц системы на уровне Е ; м имеет смысл химического потенциала или энергии Ферми (в зависимости от рассматриваемого распределения); g – кратность вырождения соответствующего уровня энергии. В этом случае ошибка в получении и фиксации информации определится неточностью в подсчете числа частиц при заданной неточности в измерении энергии системы Δ E :
. , f E - м ) A E
A n ( E ) — exp V- ~k^ у g ■ kT . (15)
Если теперь напрямую связать один бит информации с изменением состояния на одну частицу, то
| A E | — exp | — ]■ g 1 kT |A I |. (16)
-
V kT У
- Подставляя для квантового случая (15) в соотношение неопределенностей, энергия – время (4), получаем оценку
Заключение
При рассмотрении полученных результатов на феноменологическом уровне картина может быть представлена следующим образом.
Для очень малого числа равноправных микросостояний (порядка 10) и малого количества частиц, их реализующих, понятие температуры как термодинамической характеристики макроскопической системы теряет смысл. Вместо понятия температуры системы целесообразно оперировать понятием энергии частиц. Тогда процесс фиксации информации на квантовом уровне можно описывать с помощью бинарной меры Хартли, рассматривая в качестве элементарной системы, например, основное и возбужденное состояния атома при условии отсутствия вырождения.
При стремлении температуры к нулю число микросостояний уменьшается, термодинамическая энтропия стремится к нулю. Что касается фиксации микроинформации, то неустранимая неопределенность энергии информационного обмена связана с числом квантовых состояний системы в соответствующем интервале Δ Е. Неопределенность информации тогда будет составлять число квантовых состояний в этом интервале энергии (1 квант – 1 бит).
На наш взгляд, результат настоящей работы может быть полезным применительно к оцениванию предельных возможностей квантовых компьютеров, а также представляет интерес в части обсуждения возможности формулировки принципа неопределенности информация – время, отражающего объективное свойство взаимодействия сознания и информации.
Список литературы О соотношении неопределенностей в диаде информация - время и значении его константы
- Бонгард М.М. Проблема узнавания. М.: Физматгиз, 1967.
- Бриллюэн Л. Наука и теория информации. М.: Физматгиз, 1960.
- Квантовая и неравновесная статистика:учеб. пособие. / А.Н. Алмалиев, И.В. Копытин, С.И. Мармо, Т.А. Чуракова. Воронеж: Изд-во Воронежского государственного университета, 2010.
- Киттель Ч. Статистическая термодинамика. М.: Наука, 1977. 336 с.
- Клименко И.С., Шарапова Л.И. Оптимизация управленческих решений и соотношение неопределенности информация - время // Вестник Российского нового университета. Серия: Сложные системы: модели, анализ и управление. 2021. № 1. С. 37-43.
- Ландау Л.Д., Лифшиц Е.М. Статистическая физика. Ч. 1: Т. 5. Теоретическая физика. Изд. 5-е. М.: Физматлит, 2005. 616 с.
- Суханов А.Д. Новый подход к соотношению неопределенности энергия - время // Физика элементарных частиц и атомного ядра. 2001. Т. 32. Вып. 5. С. 1177-1220.
- Харкевич А.А. О ценности информации // Проблемы кибернетики. 1960. Вып. 4. С. 54-60.
- Чернавский Д.С. Синергетика и информация. М.: Наука, 2001.
- Heisenberg W. (1927) Uber den anschaulicheninhalt der quanten the oretischen Kinematik und Mechanik. Zeitschrift fur Physik, vol. 43, pp. 172-198.