egovoru: (Default)
[personal profile] egovoru

Сколько информации содержит молекула ДНК, состоящая из 10 нуклеотидов? Большинство из вас, вероятно, ответит, воспользовавшись формулой Шеннона h(E) = -log2P{E}: 20 бит. Но я думаю, этот ответ неверен, и вот почему.


Двадцать бит содержит не сама молекула ДНК, а последовательность из 10 символов четырехбуквенного алфавита, которой мы подменяем молекулу ДНК, производя эти вычисления. Но ведь ту же молекулу ДНК можно представить и по-другому: например, как последовательность чисел – пространственных координат всех составляющих ее атомов, плюс буквенные обозначения химических элементов. Если мы подсчитаем, сколько информации содержит такая запись (а именно так и строят структурные модели молекул), то получим число, существенно большее, чем 20 бит. Теоретически можно представить себе и квантово-механическое описание всех составляющих молекулу частиц, хотя пока мы и не умеем этого делать для молекул такого размера – и эта запись будет содержать еще больше информации.

Не означает ли это, что понятие «количество информации» вообще не имеет смысла для физических объектов, а применимо только к их символьным обозначениям? Ведь прежде чем измерять информацию как вероятность выбора одного варианта из многих, необходимо разметить пространство возможностей.

На ту же мысль наводит и отсутствие прибора, которым можно было бы измерить информационное содержание физического объекта – в отличие от, например, температуры. В противном же случае приходится выдумывать такие несуразности, как отдельная «органическая информация» :)


Leo Bear-McGuinness рассказывает о планах использования ДНК
для хранения произведенных человечеством текстов

Спасибо уважаемому [livejournal.com profile] mns2012 за ссылку на статью Барбиери.

Date: 2018-07-12 11:58 am (UTC)
From: [identity profile] egovoru.livejournal.com
А какие у нас есть основания считать вселенную клеточным автоматом?

Date: 2018-07-12 12:08 pm (UTC)
From: [identity profile] marigranula.livejournal.com
никаких :)
Я просто говорю о том, что человек, поддерживающий модель клеточного автомата, может сказать, что в литре содержится скажем 10^103 бит. Я не говорю сейчас о том, есть ли у него эмпирические доказательств для утверждения что вселенная - клеточный автомат. Но в рамках этой гипотезы - само утверждение о данном количестве информации в данном объеме корректно.

Date: 2018-07-13 11:32 am (UTC)
From: [identity profile] egovoru.livejournal.com
Клеточный автомат - это сугубая абстракция, алгоритм, выдуманный нами. Физические же тела - это то, что может от нас никак не зависеть. Вопрос для меня заключается в том, приложимо ли наше понятие "количество информации" (рассчитанное по формуле Шеннона) к физическим телам?

Date: 2018-07-13 12:00 pm (UTC)
From: [identity profile] marigranula.livejournal.com
Давайте скажем так - в случае мейнстримовской физики , не обращаясь к экзотическим вариантам - то нет.
Я просто вдаюсь в подробности из-за использования понятия информации в разных смыслах у разных авторов.
Например, одна из формулировок Копенгагенской интерпретации квантовой механики говорит о том, что до коллапса волновой функции, состояние системы полностью описывается информацией закодированной в волновой функции. На самом деле, очевидно, что волновая функция - это абстрактное понятие в Копенгагенской интерпретации, а не физическая система как таковая. Какова ситуация с интерпретацией Де Бройля- Бома, где волна является физическим объектом, я не знаю. Но опять таки, интерпретация Бома не является майнстримовской.
Ещё есть парадокс с потерей информации в черной дыре, но там опять таки не совсем понятно что понимать под информацией. Речь идет в данном случае о большом количестве внутренних состояний черной дыры, которые могут быть потеряны если черная дыра испарится за счет Хокинговой радиации. Но в данном случае, я рекомендую Вам https://arxiv.org/pdf/1310.7914.pdf. Один из авторов, ксати, биолог и один из разработчиков Avida.

Date: 2018-07-13 12:49 pm (UTC)
From: [identity profile] egovoru.livejournal.com
Ох, про разные интерпретации квантовой механики, а также про черные дыры я вообще не берусь рассуждать, так как слишком мало в этом понимаю :(

Меня просто смущают утверждения типа "ДНК содержит столько-то информации" - мне кажется, они лишены смысла. А окончательно меня запутывает то, что информация - это, с одной стороны, нечто из абстрактного мира символов и текстов, но, с другой - вроде бы это энтропия с обратным знаком, а уж энтропию-то можно рассчитать из вполне физического соотношения Гиббса dG = dH - TdS.

Date: 2018-07-13 01:44 pm (UTC)
From: [identity profile] marigranula.livejournal.com
"а "ДНК содержит столько-то информации" - мне кажется, они лишены смысла. "
Полностью согласен, без каких либо оговорок.

"нечто из абстрактного мира символов и текстов, но, с другой - вроде бы это энтропия с обратным знаком"
Энтропия и информация -это вещи которые невозможно измерить прибором. Вы меряете что то, а потом вычислите изменение энтропии или информацию. Энтропия - это тоже вещь достаточно абстрактная. Связаны они между собой тем, что они оба показывают количество микросостояний в системе. Но микросотояния - это вещь абстрактная.
Энергия гиббса синтеза ДНК для синтетазы ДНК синтезирующей случайную последовательность (которая не различает нуклеотиды, мы такую обсуждали в одном из моих постов) будет иной по сравнению с обычной репликазой, которая синтезирует ДНК не случайную а с комплементарной ДНК. Разница в энергии гиббса проистекает из-за разницы в энтропиях между этими двумя процессами, а разница в энтропии - с тем, что вторая ДНК способна различать основания (то есть считывает информацию с комплементарной ДНК), а первая - нет. Можно сказать, что для второй ДНК основания воспринимаются как символы, и она записывает соответствующую информацию, когда синтезирует ДНК, а для первой нет.
Для первой синтетазы возможно одно состояние - она не различает основания, ф для второй разность энтропий = k*log(4), так как она различает 4 состояния.
Edited Date: 2018-07-13 01:47 pm (UTC)

Date: 2018-07-14 12:46 pm (UTC)
From: [identity profile] egovoru.livejournal.com
"Связаны они между собой тем, что они оба показывают количество микросостояний в системе"

Вот тут и кроется корень моего непонимания. Когда мы говорим о вероятности выбора конкретного высказывания из многих, ее рассчитать легко, зная длину высказывания и мощность алфавита, ведь обе эти величины заведомо конеченые. Когда же мы переходим к физической системе, то для расчета вероятности ее конкретного микросостояния нам надо знать число всех возможных микросостояний. А откуда его взять? Скажем, идеальный газ: координаты и импульс его молекул - непрерывные величины, так что их значения будут иметь бесконечное (равномощное континууму) число комбинаций. Не говоря уже о том, что мы ведь можем выбрать и бесконечное число параметров, описывающих микросостояние, а не только два!

Date: 2018-07-14 03:06 pm (UTC)
From: [identity profile] marigranula.livejournal.com
"для расчета вероятности ее конкретного микросостояния нам надо знать число всех возможных микросостояний. А откуда его взять?"
Ну во первых, заметь что в формуле
dG = dH - TdS
фигурирует dS. То есть, нас интересует разница, а не абсолютное количество энтропии.
Более того, свое dS будет для каждой реакции, то есть вас не интересует разница вообще, а только релевантная.
Представьте себе пробирку разделенную мембраной на две части. В одной части находится ионы Na+, в другой K+, с одинаковой концентрацией.
Теперь задаем вопрос об энтропии системы. Автоматически возникает вопрос " а почему вы спрашиваете?" Например, у нас есть трансмембранный белок который синтезирует ATP при градиенте любых катионов. Если мы его встроим в мембрану, то для данной реакции dS=0, и этот белок ATP не синтезирует, потому что градиента катионов в нашем случае нет (напомню, что градиента нет не вообще, а с точки зрения нашего протеина). А вот если у нас есть натриевый и калиевый каналы, то они будут синтезировать ATP и энтропия для данной реакции изменится. То есть, разница между ионами релевантна для второй реакции и не релевантна для первой. Действительно "координаты и импульс его молекул - непрерывные величины, так что их значения будут иметь бесконечное (равномощное континууму) число комбинаций", но если их координаты не релевантны процессу который мы изучаем, то они не являются нам интересны. Вопрос не в микросостаяниях, а в микросостояниях релевантных процессу (ну вот например для которого мы вычисляем энергию Гиббса)
Edited Date: 2018-07-14 03:10 pm (UTC)

Date: 2018-07-14 04:47 pm (UTC)
From: [identity profile] egovoru.livejournal.com
"нас интересует разница, а не абсолютное количество энтропии"

То, что разница, меня совсем не смущает, потому что энтропия тут далеко не одинока. Скажем, электрический потенциал - тоже концепция сугубо теоретическая, в то время как разницу потенциалов можно измерить любым вольтметром. А вот прибора для измерения "разницы информационного содержания" или даже "разницы энтропии" у нас нет.

"Вопрос не в микросостояниях, а в микросостояниях, релевантных процессу"

Но это ведь и значит, что мы говорим не о физической системе как таковой, а о некоем ее описании, составленном в соответствии с нашими конкретными нуждами!

Profile

egovoru: (Default)
egovoru

April 2026

S M T W T F S
    1234
567 891011
121314 15161718
192021 22232425
2627282930  

Style Credit

Expand Cut Tags

No cut tags
Page generated Apr. 26th, 2026 04:09 pm
Powered by Dreamwidth Studios