Двадцать бит содержит не сама молекула ДНК, а последовательность из 10 символов четырехбуквенного алфавита, которой мы подменяем молекулу ДНК, производя эти вычисления. Но ведь ту же молекулу ДНК можно представить и по-другому: например, как последовательность чисел – пространственных координат всех составляющих ее атомов, плюс буквенные обозначения химических элементов. Если мы подсчитаем, сколько информации содержит такая запись (а именно так и строят структурные модели молекул), то получим число, существенно большее, чем 20 бит. Теоретически можно представить себе и квантово-механическое описание всех составляющих молекулу частиц, хотя пока мы и не умеем этого делать для молекул такого размера – и эта запись будет содержать еще больше информации.
Не означает ли это, что понятие «количество информации» вообще не имеет смысла для физических объектов, а применимо только к их символьным обозначениям? Ведь прежде чем измерять информацию как вероятность выбора одного варианта из многих, необходимо разметить пространство возможностей.
На ту же мысль наводит и отсутствие прибора, которым можно было бы измерить информационное содержание физического объекта – в отличие от, например, температуры. В противном же случае приходится выдумывать такие несуразности, как отдельная «органическая информация» :)
для хранения произведенных человечеством текстов
Спасибо уважаемому
mns2012 за ссылку на статью Барбиери.
no subject
Date: 2018-07-12 11:58 am (UTC)no subject
Date: 2018-07-12 12:08 pm (UTC)Я просто говорю о том, что человек, поддерживающий модель клеточного автомата, может сказать, что в литре содержится скажем 10^103 бит. Я не говорю сейчас о том, есть ли у него эмпирические доказательств для утверждения что вселенная - клеточный автомат. Но в рамках этой гипотезы - само утверждение о данном количестве информации в данном объеме корректно.
no subject
Date: 2018-07-13 11:32 am (UTC)no subject
Date: 2018-07-13 12:00 pm (UTC)Я просто вдаюсь в подробности из-за использования понятия информации в разных смыслах у разных авторов.
Например, одна из формулировок Копенгагенской интерпретации квантовой механики говорит о том, что до коллапса волновой функции, состояние системы полностью описывается информацией закодированной в волновой функции. На самом деле, очевидно, что волновая функция - это абстрактное понятие в Копенгагенской интерпретации, а не физическая система как таковая. Какова ситуация с интерпретацией Де Бройля- Бома, где волна является физическим объектом, я не знаю. Но опять таки, интерпретация Бома не является майнстримовской.
Ещё есть парадокс с потерей информации в черной дыре, но там опять таки не совсем понятно что понимать под информацией. Речь идет в данном случае о большом количестве внутренних состояний черной дыры, которые могут быть потеряны если черная дыра испарится за счет Хокинговой радиации. Но в данном случае, я рекомендую Вам https://arxiv.org/pdf/1310.7914.pdf. Один из авторов, ксати, биолог и один из разработчиков Avida.
no subject
Date: 2018-07-13 12:49 pm (UTC)Меня просто смущают утверждения типа "ДНК содержит столько-то информации" - мне кажется, они лишены смысла. А окончательно меня запутывает то, что информация - это, с одной стороны, нечто из абстрактного мира символов и текстов, но, с другой - вроде бы это энтропия с обратным знаком, а уж энтропию-то можно рассчитать из вполне физического соотношения Гиббса dG = dH - TdS.
no subject
Date: 2018-07-13 01:44 pm (UTC)Полностью согласен, без каких либо оговорок.
"нечто из абстрактного мира символов и текстов, но, с другой - вроде бы это энтропия с обратным знаком"
Энтропия и информация -это вещи которые невозможно измерить прибором. Вы меряете что то, а потом вычислите изменение энтропии или информацию. Энтропия - это тоже вещь достаточно абстрактная. Связаны они между собой тем, что они оба показывают количество микросостояний в системе. Но микросотояния - это вещь абстрактная.
Энергия гиббса синтеза ДНК для синтетазы ДНК синтезирующей случайную последовательность (которая не различает нуклеотиды, мы такую обсуждали в одном из моих постов) будет иной по сравнению с обычной репликазой, которая синтезирует ДНК не случайную а с комплементарной ДНК. Разница в энергии гиббса проистекает из-за разницы в энтропиях между этими двумя процессами, а разница в энтропии - с тем, что вторая ДНК способна различать основания (то есть считывает информацию с комплементарной ДНК), а первая - нет. Можно сказать, что для второй ДНК основания воспринимаются как символы, и она записывает соответствующую информацию, когда синтезирует ДНК, а для первой нет.
Для первой синтетазы возможно одно состояние - она не различает основания, ф для второй разность энтропий = k*log(4), так как она различает 4 состояния.
no subject
Date: 2018-07-14 12:46 pm (UTC)Вот тут и кроется корень моего непонимания. Когда мы говорим о вероятности выбора конкретного высказывания из многих, ее рассчитать легко, зная длину высказывания и мощность алфавита, ведь обе эти величины заведомо конеченые. Когда же мы переходим к физической системе, то для расчета вероятности ее конкретного микросостояния нам надо знать число всех возможных микросостояний. А откуда его взять? Скажем, идеальный газ: координаты и импульс его молекул - непрерывные величины, так что их значения будут иметь бесконечное (равномощное континууму) число комбинаций. Не говоря уже о том, что мы ведь можем выбрать и бесконечное число параметров, описывающих микросостояние, а не только два!
no subject
Date: 2018-07-14 03:06 pm (UTC)Ну во первых, заметь что в формуле
dG = dH - TdS
фигурирует dS. То есть, нас интересует разница, а не абсолютное количество энтропии.
Более того, свое dS будет для каждой реакции, то есть вас не интересует разница вообще, а только релевантная.
Представьте себе пробирку разделенную мембраной на две части. В одной части находится ионы Na+, в другой K+, с одинаковой концентрацией.
Теперь задаем вопрос об энтропии системы. Автоматически возникает вопрос " а почему вы спрашиваете?" Например, у нас есть трансмембранный белок который синтезирует ATP при градиенте любых катионов. Если мы его встроим в мембрану, то для данной реакции dS=0, и этот белок ATP не синтезирует, потому что градиента катионов в нашем случае нет (напомню, что градиента нет не вообще, а с точки зрения нашего протеина). А вот если у нас есть натриевый и калиевый каналы, то они будут синтезировать ATP и энтропия для данной реакции изменится. То есть, разница между ионами релевантна для второй реакции и не релевантна для первой. Действительно "координаты и импульс его молекул - непрерывные величины, так что их значения будут иметь бесконечное (равномощное континууму) число комбинаций", но если их координаты не релевантны процессу который мы изучаем, то они не являются нам интересны. Вопрос не в микросостаяниях, а в микросостояниях релевантных процессу (ну вот например для которого мы вычисляем энергию Гиббса)
no subject
Date: 2018-07-14 04:47 pm (UTC)То, что разница, меня совсем не смущает, потому что энтропия тут далеко не одинока. Скажем, электрический потенциал - тоже концепция сугубо теоретическая, в то время как разницу потенциалов можно измерить любым вольтметром. А вот прибора для измерения "разницы информационного содержания" или даже "разницы энтропии" у нас нет.
"Вопрос не в микросостояниях, а в микросостояниях, релевантных процессу"
Но это ведь и значит, что мы говорим не о физической системе как таковой, а о некоем ее описании, составленном в соответствии с нашими конкретными нуждами!