Двадцать бит содержит не сама молекула ДНК, а последовательность из 10 символов четырехбуквенного алфавита, которой мы подменяем молекулу ДНК, производя эти вычисления. Но ведь ту же молекулу ДНК можно представить и по-другому: например, как последовательность чисел – пространственных координат всех составляющих ее атомов, плюс буквенные обозначения химических элементов. Если мы подсчитаем, сколько информации содержит такая запись (а именно так и строят структурные модели молекул), то получим число, существенно большее, чем 20 бит. Теоретически можно представить себе и квантово-механическое описание всех составляющих молекулу частиц, хотя пока мы и не умеем этого делать для молекул такого размера – и эта запись будет содержать еще больше информации.
Не означает ли это, что понятие «количество информации» вообще не имеет смысла для физических объектов, а применимо только к их символьным обозначениям? Ведь прежде чем измерять информацию как вероятность выбора одного варианта из многих, необходимо разметить пространство возможностей.
На ту же мысль наводит и отсутствие прибора, которым можно было бы измерить информационное содержание физического объекта – в отличие от, например, температуры. В противном же случае приходится выдумывать такие несуразности, как отдельная «органическая информация» :)
для хранения произведенных человечеством текстов
Спасибо уважаемому
mns2012 за ссылку на статью Барбиери.
no subject
Date: 2018-07-11 04:34 pm (UTC)no subject
Date: 2018-07-11 10:55 pm (UTC)Меня смущает не это, а разговоры о том, что, дескать, такой-то физический объект "содержит столько-то бит информации". Мне кажется, подобные утверждения начисто лишены смысла. А Вы что думаете?
(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2018-08-25 05:34 pm (UTC)Кстати, подумала, что те, кто собираются хранить информацию в виде ДНК, похоже, не отдают себе отчет в неизбежности ошибок копирования при размножении клеток. С учетом этого в качестве "хранилищ" нужно выбирать не микроорганзимы с их чрезвычайно коротким временем жизни (а значит, и быстрой сменой поколений со столь же быстрым накоплением ошибок!), а каких-нибудь долгоживущих тварей вроде черепах :)
(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2018-07-11 05:07 pm (UTC)no subject
Date: 2018-07-11 10:57 pm (UTC)(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2018-07-11 05:35 pm (UTC)-А правда, что в Одессе всегда отвечают вопросом на вопрос?
-А почему вы спрашиваете?
Так и тут, на вопрос "сколько информации содержится в ДНК" единственный коректный ответ "а почему вы спрашиваете?" . Что вы собираетесь с этой ДНК делать? С помощью каких приборов? От этого все зависит.
no subject
Date: 2018-07-11 11:22 pm (UTC)Если мы имеем дело с последовательностью символов, то говорить о ее информационном содержании очень даже можно - см. формулу Шеннона. Иными словами, количество информации - это отрицательный логарифм вероятности выпадения именно этой последовательности символов среди всех, которые можно составить из данного алфавита (проще говоря, величина, обратная числу всех возможных последовательностей). Но как определить количество информации, содержащееся в физическом объекте?
"Сколько бит нужно, чтобы синтезировать ДНК из 10 оснований," ответ - 20 бит"
Верно, но, заметьте, это ведь ответ на вопрос, обратный тому, какой я задала в посте :) Действительно, синезируя ДНК, мы заранее договариваемся, что букве А в заданной нам последовательности символов будет соответствовать аденин в создаваемой молекуле, букве Т - тимин и т.д.
"на вопрос "сколько информации содержится в ДНК" единственный коректный ответ "а почему вы спрашиваете?"
Да, именно об этом я и говорю. А между тем, постоянно попадаются суждения типа "такой-то физический объект содержит столько-то информации" - или даже попытки подсчитать информационное содержание Вселенной (https://www.researchgate.net/profile/Aleksandr_Bukalov/publication/289779624_Antropo-cosmic_resonance_coincidence_of_dynamic_values_and_constants_in_the_present_epoch_and_generalization_of_the_Antropic_Principle/links/5692908108aec14fa55d7f19/Antropo-cosmic-resonance-coincidence-of-dynamic-values-and-constants-in-the-present-epoch-and-generalization-of-the-Antropic-Principle.pdf)! Мне кажется, все это начисто лишено смысла, или нет?
(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2018-07-11 05:56 pm (UTC)Как во всякой формуле, сначала надо более-менее понять, к чему она относится. (Например, формула 2+2=4 не всегда является верной, как показал в своей диссертации Менделеев, 2 литра воды + 2 литра спирта = 3,86 литров напитка.) Так и здесь. Говоря о информации, Шеннон начинает со следующего:
Система связи по существу состоит из пяти частей:
Источник информации – создает сообщение
Передатчик – перерабатывает в некий сигнал
Канал передачи
Приемник – восстанавливает сообщение по сигналу
Адресат.
no subject
Date: 2018-07-11 11:28 pm (UTC)(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2018-07-12 03:18 am (UTC)Это не обязательно так. Для иллюстрации правильнее рассматривать белки, потому что у ДНК структура вообще простая. "Последовательное" информационное содержание белка из 100 аминокислот - 600 бит. Теоретически возможное число конформаций такого белка в приближении Левинталя (3 стабильные конформации на торсионный угол) - 3^198 (мы знаем, что это число на десятки порядков больше реального пространства конформационного поиска, см. парадокс Левинталя). И вот это вот сильно завышенное "структурное" информационное содержание - log2(3^198)=314 бит - прекрасно вписывается в наши 600 бит из последовательности.
Важно иметь ввиду, что такие расчеты предполагают доступность полного структурного "алфавита". Построить белок ab initio обойдется немножко дороже, чем 314 бит ;)
no subject
Date: 2018-07-12 11:35 am (UTC)Вот именно. То есть, эти 314 бит нужны будут нужны в дополнение к 600 (да и то, 600 - это какой-то уж очень коротенький белок). Не говоря уже о том, что тут мы решаем обратную задачу - подсчитываем, сколько информации нам будет нужно, чтобы построить заданный белок. А эта задача предполагает предварительную договоренность о том, как именно мы будем расшифровывать заданную нам информацию, что, очевидно, тоже имеет свое информационное содержание. Вопрос же об информационном содержании физического тела остается неопределенным.
no subject
Date: 2018-07-12 07:37 am (UTC)no subject
Date: 2018-07-12 11:44 am (UTC)no subject
Date: 2018-07-12 08:34 am (UTC)А что смущает-то? Если кодировать аминокислотами, то одно количество бит, а если атомами – то другое. Вот если я спрошу, сколько бит можно закодировать числом от 0 до 255, вы же правильно ответите? А если добавить, что записывать число можно разноцветными фломастерами? А если после каждой цифры можно точку ставить или не ставить?
no subject
Date: 2018-07-12 11:46 am (UTC)no subject
Date: 2018-07-12 09:53 am (UTC)Теория Шеннона не отражает смысловой аспект сообщений.
Функциональная информация - это минус лог. отношения числа функциональных строк (доставляющих заданный уровень конкретной биофункции f) к числу всех возможных строк длины не более заданной. Это объективная величина (понятно, с учетом стандартных допущений теории информации).
По поводу Вашего недоумения думаю, что никаких нестыковок быть не должно: нужно смотреть в каждом методе, какие допущения используются. Если все допущения привести "к общему знаменателю", то разными способами должна получаться примерно одна и та же цифра.
no subject
Date: 2018-07-12 11:55 am (UTC)Верно, но подсчитывать смысл, если я правильно понимаю, никто пока не научился.
Но в данном случае меня занимает не смысл, а невозможность однозначно рассчитать количество даже шенноновской информации для физического объекта. Это количество зависит от контекста, то есть, от того, какой именно последовательностью символов мы представляем данный объект.
Спасибо за отклик и ссылку на статью, но, судя по Вашему о ней посту, автор пишет все же несколько о другом.
(no subject)
From:(no subject)
From:no subject
Date: 2018-07-12 02:37 pm (UTC)Информация - тоже понятие относительное, ее количество зависит от уровня рассмотрения.
no subject
Date: 2018-07-13 12:01 pm (UTC)Информация же - это вроде бы нечто из области сугубых абстракций, символов, текстов, а подмена физического объекта текстом кажется мне опасной игрой. То есть, физика, разумеется, тоже имеет дело с абстракциями - идеальным газом, абсолютно черным телом и т.д. - но все же тут есть понимание, что абстракции служат только моделями некоего "реального мира", который не является последовательностью символов!
(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From: (Anonymous) - Date: 2018-07-21 06:55 pm (UTC) - Expand(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2018-07-12 09:09 pm (UTC)no subject
Date: 2018-07-13 12:42 pm (UTC)Вот что он пишет в своей знаменитой статье 1948 года (только я не умею вставлять в html греческие буквы):
"We shall call H = - (Сигма) Pi log Pi the entropy of the set of probabilities p1, ... pn. If X is a chance variable we will write H(x) for its entropy; thus x is not an argument of a function but a label for a number, to differentiate it from H(y) say, the entropy of the chance variable y."
А что такое "информация по Колмогорову"? Я слыхала только о "колмогоровской сложности" и еще о его определении вероятности.
(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2018-07-13 08:36 am (UTC)no subject
Date: 2018-07-13 10:21 pm (UTC)(no subject)
From:no subject
Date: 2018-07-14 12:38 pm (UTC)(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:(no subject)
From:no subject
Date: 2018-07-18 04:28 pm (UTC)Конечно, это далеко не предел. Объем информации можно увеличить, например, записывая её еще и внутри формирующих днк нуклеотидов - аденина, гуанина, цитозина и тимина, каждый из которых содержит полтора десятка атомов. Например, используя в качестве элементов кодировки их изотопный состав.
Есть ли с точки зрения физики теоретический предел объема информации, которую может хранить тот или иной физический объект как информационный носитель? Можно ли, например, каким-то образом записать мегабайт информации внутри отдельного атома или небольшой молекулы? Не уверен. Ведь для этого нужно каким-то образом научиться создавать, сохранять и считывать миллионы достаточно стабильных квантовых состояний внутри такого объекта. Откуда им там взяться в таком количестве, не очень понятно.
no subject
Date: 2018-07-18 11:42 pm (UTC)Этот-то вопрос не вызывает у меня никаких возражений, потому что здесь мы просто-напросто составляем сообщение, используя в качестве символов не типографские литеры, а нуклеотиды. Смущает меня обратный вопрос: сколько информации содержит физический объект? Он ведь вроде бы подразумевает некоего "кодировщика", который закодировал некую информацию в этом объекте, разве нет?
"Откуда им там взяться в таком количестве, не очень понятно"
Очевидно, мы можем подсчитать максимальное число различных состояний квантового объекта, пользуясь сегодняшними знаниями. Но, допустим, завтра будет получено подтверждение струнной теории. Не означает ли это, что тогда мы сможем распознать больше разных возможных состояний, чем сейчас (подобно тому, как мы можем рассмотреть в микроскоп гораздо больше деталей, например, у муравья, чем невооруженным глазом)?