понедельник, 10 марта 2014 г.

Ричард Докинз. Капеллан дьявола. Размышления о надежде, лжи, науке и любви

Акула плавает лучше человека, гепард лучше бегает, стриж лучше его летает, а капуцин - лазает. Слон сильнее человека, а секвойя - долговечнее. Однако, напоминает автор книг "Эгоистичный ген" и "Бог как иллюзия" - у нас есть нечто гораздо более ценное: понимание естественного отбора и отвращение к его плодам, дар предвидения и разум, способный проникнуть в суть вещей и охватить все мироздание. В своих эссе о науке, религии и здравомыслии знаменитый натуралист и философ призывает читателя оставить иллюзии и видеть чудеса в том, что являет нам сама реальность.

Глава из книги:

В сентябре 1997 года я впустил в свой оксфордский дом австралийскую съемочную группу, не понимая, что ее целью была пропаганда креационизма. В ходе подозрительно непрофессионального интервью эти люди в язвительном тоне предложили мне “привести пример генетической мутации или эволюционного процесса, в отношении которого можно убедиться, что он увеличивает количество информации в геноме”. Это один из вопросов, которые в такой форме станет задавать только креационист, и только тут до меня дошло, что меня обвели вокруг пальца и я даю интервью креационистам — чего я обычно не делаю, имея на то веские основания. Я был так возмущен, что отказался продолжать обсуждение этого вопроса и велел им выключить камеру. Однако в итоге я согласился продолжить разговор: они стали жаловаться на то, что приехали аж из Австралии только для того, чтобы взять у меня интервью. Даже если это и было сильным преувеличением, мне все же показалось, по зрелом размышлении, что будет неблагородно разорвать разрешение на показ и вышвырнуть их из дома. Поэтому я уступил.


Мое благородство было вознаграждено таким манером, какого мог бы ожидать любой человек, знакомый с приемами фундаменталистов. Когда я увидел этот фильм год спустя, то обнаружил, что он был смонтирован так, чтобы у зрителя сложилось ложное впечатление, будто я оказался неспособен ответить на вопрос о количестве информации. Справедливости ради следует признать, что это мог быть не такой уж преднамеренный обман, как может показаться. Эти люди действительно верят, что на этот вопрос невозможно ответить! Как это ни смешно, похоже, они специально приехали из Австралии только для того, чтобы заснять, как у эволюциониста не получается на него ответить.

Задним числом, учитывая, что меня все равно уже надули, добившись, чтобы я впустил их в дом, можно подумать, что было разумнее просто ответить на этот вопрос. Но я хочу, чтобы меня понимали всякий раз, когда я открываю рот (меня ужасает перспектива ослепить людей наукой), а этот вопрос не из тех, на которые можно ответить в двух словах. Вначале нужно разъяснить значение слова “информация” как специального термина. Далее разъяснить, как он связан с эволюцией, что тоже довольно сложно — не то чтобы трудно, но требует времени. Однако вместо того, чтобы погружаться в дальнейшие рассуждения на тему “кто виноват” и споры о том, что на самом деле случилось во время этого интервью, я сейчас попытаюсь исправить дело конструктивным способом, ответив на тот самый вопрос об информации достаточно развернуто — насколько это позволяет объем обычной статьи.

Определение слова “информация” как специального термина впервые дал американский инженер Клод Шеннон в 1948 году. В компании “Белл телефон” Шеннон занимался проблемой измерения количества информации как предмета экономического потребления. Посылать сообщения по телефонным проводам довольно дорого. Значительная часть того, что передается в этих сообщениях, не содержит информации — эта часть избыточна. Можно сэкономить деньги, записав сообщение и избавившись от этой избыточности. “Избыточность” — это еще один специальный термин, который Шеннон определил как нечто обратное информации. Оба его определения математического свойства, но интуитивный смысл того, что Шеннон имел в виду, можно передать словами. Избыточность — это та часть любого сообщения, которая неинформативна потому, что она уже известна получателю (и ничуть его не удивит), либо потому, что она повторяет другие части того же сообщения. В предложении “Ровер — собака породы пудель” слова “собака” и “породы” избыточны, потому что слово “пудель” уже говорит нам, что Ровер — собака соответствующей породы. Из телеграммы эти слова можно было бы убрать для экономии, тем самым увеличив информативность сообщения. Сообщение “Приб ДжФК пт веч пжлст встр БЭ кнкрд” несет ту же информацию, что и более длинное, но более избыточное “Я прибываю в аэропорт им. Джона Ф. Кеннеди в пятницу вечером; пожалуйста, встречайте ‘Конкорд компании ‘Бритиш эйрвеэйз5”. Очевидно, что послать краткий вариант, записанный в телеграфном стиле, будет дешевле (хотя получателю, возможно, и придется изрядно потрудиться, чтобы его расшифровать — у избыточности есть свои достоинства, если забыть об экономичности) . Шеннон хотел найти математический способ передать идею, что любое сообщение можно разбить на информацию, избыточность (которую можно — и экономически выгодно — исключать из сообщения, потому что получатель может при желании ее восстановить) и шумы (просто случайная белиберда).

Сообщение “В Оксфорде на этой неделе ежедневно шел дождь” несет сравнительно мало информации, потому что получателя оно не удивит. С другой стороны, количество информации в сообщении “В пустыне Сахара на этой неделе ежедневно шел дождь” намного больше и вполне стоит того, чтобы подороже заплатить за его пересылку. Шеннон хотел как-то передать этот смысл количества информации как “меры удивительности”. Он связан с другим смыслом (как “того, что не продублировано в других частях сообщения”), потому что повторы теряют свою способность удивлять. Заметьте, что шенноновское определение количества информации не зависит от того, истинна ли она. Придуманная им мера информации была остроумна и интуитивно соответствовала задаче. Давайте, предложил он, оценим количество незнания или неопределенности знаний получателя до получения сообщения, а затем сравним его с количеством оставшегося незнания после получения сообщения. Сокращение количества незнания и будет количеством переданной информации. Шенноновская единица измерения информации — бит (bit), от binary digit (двоичная цифра). Один бит определяется как количество информации, необходимое, чтобы первоначальная неопределенность сократилась вдвое, как бы велика она ни была (читатели-математики заметят, что бит, таким образом, относится к логарифмическим единицам измерения).

На практике вначале нужно найти способ измерения априорной неопределенности — той, что сокращается, когда поступает информация. Для некоторых разновидностей простых сообщений это легко сделать с помощью вероятностей. Будущий отец с нетерпением наблюдает через окошко за рождением своего ребенка. Ему не видно почти ничего, поэтому одна из медсестер согласилась показать ему розовую карточку, если родится девочка, или голубую, если родится мальчик. Сколько информации передается, когда сестра показывает счастливому отцу, скажем, розовую карточку? Ответ — один бит (априорная неопределенность сократилась вдвое). Отец знает, что родился какой-то ребенок, поэтому неопределенность его знаний сводится к двум возможностям (мальчик или девочка), которые для целей этого обсуждения можно считать равновероятными. Розовая карточка вдвое сокращает априорную неопределенность от двух возможностей до одной (девочка). Если бы никакой розовой карточки не было, а из родильной комнаты вышел бы врач, пожал бы новоиспеченному отцу руку и сказал: “Поздравляю, старина, я очень рад, что мне выпала честь первым вам сообщить, — у вас родилась дочь”, то количество информации, переданной этим сообщением в семнадцать слов, составило бы по-прежнему один бит.

Компьютерная информация содержится в последовательностях нолей и единиц. Есть только два возможных варианта, поэтому 0 или 1 в каждом положении содержит один бит информации. Объем памяти компьютера или емкость диска или ленты часто измеряется в битах и представляет собой суммарное число нолей или единиц, которые это устройство может содержать. Для некоторых целей более удобной единицей измерения служит байт (восемь бит), килобайт (тысяча байт), мегабайт (миллион байт) или гигабайт (тысяча миллионов байт). Заметьте, что эти числа относятся к суммарной имеющейся емкости. Это максимальное количество информации, которую можно записать на данное устройство. Реальное количество записанной информации — это нечто иное. К примеру, емкость моего жесткого диска — 4,2 гигабайт. Из них в настоящий момент около 1,4 гигабайт реально использованы для хранения данных. Но даже это не настоящее количество информации (в шенноновском смысле слова) на моем диске. Настоящее количество информации меньше, потому что ту же информацию можно записать экономнее. Некоторое представление о настоящем количестве информации можно получить, воспользовавшись одной из замечательных программ-архиваторов вроде Stuffit. Эта программа ищет избыточность в последовательности нолей и единиц и ощутимо сокращает эту последовательность путем перекодировки, очищая ее от внутренней предсказуемости. Максимального сжатия информации можно было бы добиться (на практике это, по-видимому, невозможно), если бы каждая единица или ноль удивляли бы нас в равной степени. Прежде чем передавать большие объемы информации через интернет, ее обычно архивируют, сокращая ее избыточность.

Все это хорошо с точки зрения экономики. Но с другой стороны, сохранять некоторую избыточность в сообщениях, ради исправления ошибок, тоже неплохая идея. Если в сообщении, совершенно лишенном избыточности, произошла ошибка, восстановить его исходный смысл уже никак невозможно. В машинные коды часто преднамеренно включают избыточные “биты контроля четности”, помогающие находить ошибки. У ДНК тоже есть различные механизмы исправления ошибок, основанные на избыточности. Когда я перейду к разговору о геномах, я вернусь к разнице между упомянутыми тремя понятиями: суммарной информационной емкости, реально использованной информационной емкости и настоящим количеством информации.

Открытие Шеннона состояло в том, что информацию любого рода, независимо от ее смысла, ее истинности или ложности, ее физического носителя, можно измерять в битах и переводить на любой другой носитель. Великий биолог Джон Б. С. Холдейн использовал теорию Шеннона, чтобы подсчитать число бит информации, передаваемое рабочей пчелой своим соседям по улью, когда она “танцует”, сообщая о местоположении источника пищи (около трех бит, чтобы сообщить направление на этот источник, и еще три бита, чтобы сообщить расстояние до него). В тех же самых единицах, как я недавно подсчитал, мне понадобилось бы сто двадцать мегабит машинной памяти моего лэптопа, чтобы записать торжественные вступительные аккорды симфонической поэмы Рихарда Штрауса “Так говорил Заратустра” (“тема из ‘Космической одиссеи 2001 годаʼ”), которые я хотел проиграть в середине одной лекции об эволюции. Экономический метод Шеннона также позволяет сосчитать, сколько модемного времени потребуется, чтобы послать полный текст книги издателю в другую страну. Спустя пятьдесят лет после открытия Шеннона его идея информации как предмета потребления, такого же измеримого и взаимопревраща-емого, как деньги или энергия, окончательно вступила в свои права.

ДНК переносит информацию очень по-компьютерному, и емкость генома тоже можно, если захочется, измерять в битах. В ДНК используется не двоичный код, а четверичный. В то время как в компьютере единица информации — это 1 или 0, в ДНК это Т, А, С или G. Сколько информации будет передано от меня к вам, если я сообщу вам, что в определенном месте последовательности ДНК стоит Г? Начнем с измерения априорной неопределенности. Сколько открыто возможностей до поступления сообщения “Г”? Четыре. Сколько возможностей остается после его поступления? Одна. Стало быть, можно подумать, что было передано четыре бита информации, но на самом деле их только два. И вот почему (исходя из того, что все четыре буквы встречаются с равной вероятностью, как четыре масти в колоде карт). Вспомним, что шенноновская мера касается наиболее экономного способа передачи сообщения. Представьте ее себе как число вопросов, предполагающих ответ “да” или “нет”, которые понадобилось бы задать, чтобы свести исходную неопределенность из четырех возможностей к определенности, если предположить, что вопросы будут сформулированы самым экономным способом. “Идет ли эта таинственная буква по алфавиту перед D)?” Нет. Это сводит неопределенность к вариантам Т и G, и теперь нам понадобится только один дополнительный вопрос, чтобы узнать разгадку. Итак, в соответствии с этим методом измерения, информационная емкость каждой “буквы” ДНК составляет два бита.

Во всех случаях, когда априорную неопределенность знаний получателя можно выразить как число равновероятных альтернатив N, количество информации в сообщении, сводящем эти альтернативы к одной, составляет log2N (степень, в которую нужно возвести двойку, чтобы получить число альтернатив N). Если выбрать карту — любую карту — из обычной колоды, то сообщение, какая это карта, будет нести log252, или 5,7 бит информации. Иными словами, если бы мы сыграли в большое число игр на угадывание, нам потребовалось бы в среднем 5,7 вопроса, требующих ответа “да” или “нет”, чтобы угадать эту карту, при условии, что мы будем задавать вопросы самым экономным способом. Первые два вопроса позволили бы нам узнать масть (например, “Она красная?” и “Это бубны?”), а оставшиеся три или четыре — успешно разделить и проверить всю эту масть (“Старше шестерки?” и тому подобное), в итоге неминуемо придя к искомой карте. Когда априорная неопределенность представляет собой своего рода смесь альтернатив, которые не равновероятны, формула Шеннона преобразуется в немного усложненную формулу для расчета взвешенного среднего, которая, впрочем, по сути аналогична. Кстати, шенноновская формула взвешенного среднего — это именно та формула, которую физики с XIX века используют для расчета энтропии. Отсюда следуют интересные вещи, но здесь я не буду их рассматривать.

Этих сведений из теории информации будет достаточно. Эта теория давно привлекает меня, и я использовал ее в некоторых своих научных работах разных лет. Теперь давайте подумаем, как ее можно использовать, чтобы ответить на вопрос, увеличивается ли количество информации в геномах в ходе эволюции. Во-первых, давайте вспомним разницу между тремя понятиями: суммарной информационной емкости, реально использованной информационной емкости и настоящим количеством информации, записанной самым экономным из всех возможных способов. Суммарная информационная емкость человеческого генома измеряется в гигабитах. У обыкновенной бактерии кишечной палочки (Escherichia coli) она измеряется в мегабитах. Мы, как и все другие животные, происходим от предка, которого, если бы у нас сегодня была возможность его исследовать, мы отнесли бы к бактериям. Итак, за миллиарды лет эволюции, прошедшие со времени жизни этого предка, информационная емкость нашего генома могла вырасти где-то на три порядка (степени десятки) — примерно в тысячу раз. Это довольно правдоподобно и утешительно для человеческого достоинства.

Должны ли мы тогда чувствовать, что человеческое достоинство унижает тот факт, что у гребенчатого тритона (Triturus cristatus) емкость генома оценивается в сорок гигабит — на порядок больше, чем у человека? Нет, потому что большая часть емкости генома любого животного в любом случае не используется для хранения полезной информации. Существует множество нефункциональных псевдогенов (см. ниже) и множество повторяющихся бессмысленных последовательностей, полезных для судебно-медицинских экспертов, но не транслируемых в живых клетках в белки. У гребенчатого тритона “жесткий диск” вместительнее, чем у нас, но поскольку основная часть жесткого диска у обоих наших видов не используется, нам не стоит обижаться. У родственных гребенчатому видов тритонов геномы гораздо меньше. Зачем Создателю понадобилось так произвольно и нечестно разыграть размеры генома между тритонами — проблема, над которой могли бы поразмыслить креационисты. С эволюционной точки зрения все объясняется просто.

Ясно, что суммарная емкость геномов весьма изменчива во всех царствах живой природы и должна была сильно меняться в ходе эволюции, вероятно в обоих направлениях. Потери генетического материала называют делециями. Новые гены возникают посредством разных форм дупликации. Это можно хорошо проиллюстрировать на примере генов гемоглобина — сложной белковой молекулы, переносящей кислород в крови.

Гемоглобин взрослого человека составлен из четырех белковых цепочек, называемых глобинами, сплетенных друг с другом. Их подробные последовательности показывают, что четыре цепочки глобинов близкородственны друг другу, но не идентичны. Две из них называют альфа-глобинами (каждый из них представлен цепочкой из 141 аминокислоты), а еще две — бета-глобины (каждый из них представлен цепочкой из 146 аминокислот). Гены, кодирующие альфа-глобины, находятся в 11-й хромосоме, а гены, кодирующие бета-глобины, в 16-й хромосоме. В каждой из этих хромосом имеется кластер из расположенных подряд генов глобинов, разделенных вкраплениями из некоторого количества “мусорной ДНК”. Альфа-кластер, на 11-й хромосоме, содержит семь генов глобинов. Четыре из них — псевдогены: варианты генов альфа-глобина, испорченные ошибками в их последовательностях и не транслируемые в белки. Два — настоящие альфа-глобины, используемые у взрослого человека. Последний называется дзета-глобином и используется только у эмбрионов. Сходным образом и бета-кластер, на 16-й хромосоме, содержит шесть генов, из которых часть выключены, а один используется только у эмбриона. Гемоглобин взрослых, как мы уже поняли, содержит две альфа- и две бета-цепочки.

Не забивайте себе голову подробностями. Вот что важно: точный анализ, буква за буквой, показывает, что разные типы генов глобинов в буквальном смысле родственны друг другу, как члены одной семьи. Но эти дальние родственники по-прежнему живут вместе в нашем собственном геноме, а также в геномах всех позвоночных. В масштабе целых организмов все позвоночные — тоже родственники. Древо эволюции позвоночных — это генеалогическое древо, с которым мы все знакомы. Точки его ветвления соответствуют случаям видообразования — разделения видов на пары дочерних видов. Но есть и еще одно генеалогическое древо, занимающее ту же временную шкалу, ветви которого соответствуют не случаям видообразования, а случаям дупликации генов в пределах генома.

Та дюжина или около того разных глобинов, которые имеются у каждого из нас, происходят от древнего гена глобина, который у нашего далекого предка, жившего около полумиллиарда лет назад, дуплицировался, после чего обе копии остались в геноме. Так у этого гена стало две копии в двух разных частях генома у всех потомков того животного. Одной копии суждено было положить начало альфа-кластеру (в том участке, который в итоге стал 11-й хромосомой нашего генома), другой — бета-кластеру (в 16-й хромосоме) . Шло время, происходили дальнейшие дупликации (а также, несомненно, и некоторые делеции). Около четырехсот миллионов лет назад предковый альфа-ген вновь дуплицировался, но на этот раз две полученные копии остались по соседству друг с другом, в одном кластере на той же хромосоме. Одному из них суждено было стать геном дзета-глобина, который используется эмбрионами, а другие стали генами альфа-глобинов, которые используются взрослыми людьми (другие ветви положили начало нефункциональным псевдогенам, упоминавшимся выше). Похожая история происходила и в бета-ветви этого семейства, только дупликации случались в другие моменты геологической истории.

Но вот еще один факт, столь же интересный. Учитывая, что расхождение между альфа-кластером и бета-кластером произошло пятьсот миллионов лет назад, разумеется, не только наши человеческие геномы должны демонстрировать это расхождение — то есть хранить альфа-гены в иной части генома, чем бета-гены. Мы должны наблюдать то же внутригеномное расхождение, если мы исследуем геномы любых других млекопитающих, птиц, рептилий, амфибий и костных рыб, потому что наш общий предок с ними всеми жил меньше, чем пятьсот миллионов лет назад. Где бы это предположение ни проверяли, оно подтверждалось. Позвоночное, у которого мы имеем наибольшие основания надеяться не обнаружить следов такого же как у нас древнего расхождения альфа- и бета-генов, должно быть бесчелюстным, таким как минога, потому что это наши самые дальние родственники среди доживших до наших дней позвоночных — единственные из современных позвоночных, чей общий предок с остальными позвоночными мог жить еще до расхождения альфа- и бета-генов. И действительно, эти бесчелюстные — единственные известные позвоночные, у которых разделение на альфа-и бета-гены отсутствует.

Дупликация генов в пределах генома играет сходную историческую роль с дупликацией видов (видообразованием) в филогенезе. Она ответственна за разнообразие генов, так же как видообразование ответственно за филетическое разнообразие. Все великолепное разнообразие жизни возникло, начавшись с одного всеобщего предка, посредством ряда ответвлений новых видов, которые в итоге положили начало большим ветвям царств живой природы и сотням миллионов других видов, украсивших собой Землю. Похожий ряд ветвлений, но на сей раз в пределах геномов (дупликаций генов), породил обширную и разнообразную популяцию кластеров генов, составляющих современный геном.

История глобинов — лишь одна из многих. Дупликации и делеции генов происходили время от времени во всех геномах. Именно такими и другими аналогичными путями размеры геномов и могут увеличиваться в ходе эволюции. Но припомните разницу между суммарной емкостью всего генома и емкостью той его части, которая реально используется. Вспомните, что используются не все гены глобинов. Некоторые из них, такие как тета-ген в альфа-кластере генов глобинов, представляют собой псевдогены, узнаваемо родственные функциональным генам в тех же геномах, но на деле никогда не переводимые на действующий язык белков. То же, что относится к глобинам, относится и к большинству других генов. По геномам разбросано множество нефункциональных псевдогенов — ошибочных дубликатов функциональных генов, которые ничего не делают, в то время как их функциональные родственники (здесь даже незачем осторожничать, ставя это слово в кавычки) продолжают делать свое дело в другой части того же генома. А есть и гораздо большее количество ДНК, которая не заслуживает даже названия псевдогенов.

Она тоже произошла путем дупликаций, но это были не дупликации функциональных генов. Она состоит из многочисленных копий разного мусора, “тандемных дупликаций” и прочей бессмыслицы, которая может быть полезна для судебно-медицинских экспертов, но, судя по всему, не используется в самом организме. И опять же креационисты могли бы хорошенько поразмыслить над тем, зачем Создателю понадобилось засорять геномы нетранслируемыми псевдогенами и тандемными дупликациями мусорной ДНК.

Можно ли измерить информационную емкость той части генома, которая реально используется? Ее можно, по крайней мере, оценить. В случае человеческого генома она составляет около 2 % — гораздо меньше, чем та часть своего жесткого диска, которую я использовал с тех пор, как купил его. Соответствующий показатель для генома гребенчатого тритона предположительно даже меньше, но мне неизвестно, измеряли ли его. В любом случае мы не должны выносить отсюда шовинистическую идею, что человеческий геном должен почему-либо обладать самой большой базой ДНК-данных, раз мы такие замечательные. Великий эволюционист Джордж Уильямс обратил внимание на то, что животным со сложным жизненным циклом нужно кодировать развитие всех стадий жизненного цикла, но у них есть на это только один геном. Геном бабочки должен содержать всю информацию, необходимую для построения организма как гусеницы, так и бабочки. В жизненном цикле печеночной двуустки целых шесть стадий, специализированных для разного образа жизни. Нам не стоило бы особенно обижаться, если бы оказалось, что у печеночных двуусток геном больше нашего (на самом деле это не так).

Вспомним также, что даже суммарная емкость той части генома, которая реально используется, не то же самое, что настоящее количество информации в шенноновском смысле слова. Настоящее количество информации — это то, что останется, когда вся избыточность будет удалена из сообщения путем сжатия, с помощью умозрительного эквивалента программы-архиватора. Существуют даже некоторые вирусы, которые, судя по всему, используют что-то вроде такого сжатия. Они пользуются тем, что код РНК (эти вирусы содержат не ДНК, а РНК) считывается триплетами. Имеется “рамка”, которая движется вдоль последовательности РНК, считывая три буквы за один раз. Очевидно, что в обычном случае, если эта рамка начнет считывать код не с того места (как это происходит при так называемых мутациях сдвига рамки считывания), получится полная бессмыслица: “триплеты”, которые она будет считывать, пойдут не в ногу с осмысленными триплетами. Но эти замечательные вирусы научились с успехом пользоваться сдвигом рамки считывания. Они получают два сообщения по цене одного, за счет совершенно другого сообщения, заключенного в той же самой последовательности букв, если считывать ее со сдвигом рамки. В принципе можно получить даже три сообщения по цене одного, но я не знаю таких примеров.

Одно дело — оценить суммарную информационную емкость генома и объем той его части, которая реально используется, и другое — оценить настоящее количество информации в шенноновском смысле слова. Лучшее, что мы можем сделать, это, должно быть, вообще забыть о самом геноме и обратиться к его продукту — фенотипу, рабочему телу животного или растения как такового. В 1951 году Джон Уильям Саттон Прингл, который впоследствии был моим профессором в Оксфорде, предложил использовать меру информации шенноновского типа для оценки “сложности” организма. Прингл хотел выразить сложность математически, в битах, но я давно обнаружил, что для разъяснения его идеи удобно излагать ее в следующей словесной форме.

У нас есть интуитивное ощущение, что, скажем, омар более сложен (более “развит”, а кто-то мог бы даже сказать “эволюци-онно выше”), чем какое-нибудь другое животное, например кив-сяк. Можем ли мы измерить что-то, чтобы подтвердить или опровергнуть этот интуитивный вывод? Не разбирая организмы этих животных на биты, мы можем приблизительно оценить количество информации в этих двух организмах следующим образом. Представьте, что мы напишем книгу, в которой описывается омар. Теперь давайте напишем другую книгу, в которой с той же степенью подробности описывается кивсяк. Разделим число слов в одной книге на число слов в другой, и мы получим приблизительную оценку соотношения количества информации омара и кивсяка. Важно подчеркнуть, что соответствующие животные должны быть описаны в обеих книгах с одной и той же степенью подробности. Очевидно, что если мы опишем кивсяка с точностью до подробностей клеточного строения, но ограничимся макроскопическими анатомическими признаками в случае омара, то кивсяк окажется далеко впереди.

Однако если провести эту проверку должным образом, я готов спорить, что книга об омаре окажется длиннее, чем книга о кив-сяке. Этот вывод основан на следующих простых соображениях. Оба животных состоят из сегментов — модулей строения тела, принципиально сходных друг с другом и соединенных продольно, как вагоны поезда. У кивсяка большинство сегментов идентичны, а у омара большинство сегментов отличаются друг от друга, хотя и следуют общему плану (у каждого есть нервный узел, пара конечностей и так далее). Книга о кивсяке состояла бы из одной главы с описанием типичного сегмента, за которой следовала бы фраза: “Повторить N раз”, где N — число сегментов. В книге об омаре понадобилась бы отдельная глава для каждого сегмента. Это не совсем справедливо в отношении кивсяка, у которого сегменты на переднем и заднем концах тела немного отличаются от остальных. И все же я готов спорить, что если кто-либо собрался бы провести такой эксперимент, полученная оценка количества информации у омара оказалась бы существенно выше оценки количества информации у кивсяка.

Такое сравнение омара и кивсяка не представляет непосредственного эволюционного интереса, потому что никто не считает, что омары произошли от кивсяков. Очевидно, что ни одно современное животное не произошло ни от одного другого современного животного. Но у любой пары современных животных был последний общий предок, который жил в какой-то (принципиально) определимый момент геологической истории. Почти вся эволюция свершилась далеко в прошлом, что сильно затрудняет изучение ее подробностей. Но мы можем воспользоваться мысленным экспериментом “с длиной книги”, чтобы договориться, что, если только мы сможем исследовать предковые формы, будет означать вопрос о том, увеличивается ли количество информации в ходе эволюции.

На деле ответ на этот вопрос запутан и служит предметом разногласий, очень тесно связанных с бурными спорами о том, прогрессивна ли эволюция в целом. Я из числа тех, кто придерживается умеренной разновидности ответа “да”. Мой коллега Стивен Джей Гулд склоняется к ответу “нет”. Не думаю, что кто-либо станет отрицать, что измеренное любым способом количество информации в геноме — будь то информация в описании строения тела, суммарная информационная емкость генома, емкость реально используемой части генома или количество настоящей (“архивированной”) информации в геноме — имело широкую общую тенденцию к увеличению в ходе эволюционного развития человека из наших далеких предков-бактерий. Однако у людей могут быть разногласия по двум важным вопросам: во-первых, обнаружится ли такая тенденция во всех или в большинстве эволюционных ветвей (например, эволюционное развитие паразитов нередко демонстрирует тенденцию к уменьшению сложности строения тела, потому что паразитам удобнее быть простыми), и, во-вторых, не наталкивается ли эта тенденция, даже в тех эволюционных ветвях, где она отчетливо проявляется в долговременном масштабе, на такое количество реверсий и повторных реверсий в кратковременном масштабе, что это подрывает саму идею прогресса. Здесь не место разрешать этот интересный спор. У обеих сторон есть адепты среди выдающихся биологов, предъявляющие хорошие аргументы.

Кстати, сторонники “разумного замысла”, направляющего эволюцию, должны крепко верить в то, что количество информации в ходе эволюции увеличивается. Даже если эта информация исходит от Бога (возможно, тем более, если она исходит от Бога), ее количество непременно должно увеличиваться и это увеличение должно, предположительно, проявляться в геноме.

Наверное, главный урок, который мы должны извлечь из подхода Прингла, состоит в том, что количество информации в биологической системе — это другое название сложности этой системы. Поэтому вопрос креационистов, с которого мы начали, равнозначен стандартному вопросу о том, как объяснить возникновение биологической сложности из более простых предшественников в ходе эволюции. Ответу на этот вопрос я посвятил три книги и не предлагаю пересказывать здесь их содержание. “Вопрос об информации” — это, оказывается, не кто иной, как наш старый друг: “Как такая сложная структура как глаз могла развиться в ходе эволюции?” На него просто надели броский наряд из математического языка — возможно, специально, чтобы обвести нас вокруг пальца. Или, возможно, те, кто задает этот вопрос, уже сами обвели себя вокруг пальца и не понимают, что это все тот же старый вопрос — на который дан исчерпывающий ответ.

В заключение позвольте мне обратиться к другому способу взглянуть на вопрос о том, увеличивается ли количество информации в геномах в ходе эволюции. Сейчас мы переключимся с широкого размаха эволюционной истории на мелкие детали естественного отбора. Сам естественный отбор, если подумать, представляет собой сведение обширного исходного поля возможных альтернатив к более узкому полю тех альтернатив, которые реально будут выбраны. Случайные генетические ошибки (мутации), половая рекомбинация и миграционное перемешивание вместе обеспечивают обширное поле генетической изменчивости — доступные альтернативы. Мутация — это не увеличение настоящего количества информации, скорее наоборот, потому что мутация, в терминах Шеннона, способствует увеличению априорной неопределенности. Но перейдем теперь к естественному отбору, который сокращает “априорную неопределенность” и поэтому, в шенноновском смысле, вносит информацию в генофонд. В каждом поколении естественный отбор удаляет из генофонда менее успешные гены, так что остающийся генофонд представляет собой меньшее подмножество. Это сокращение неопределенности происходит неслучайно, в направлении усовершенствования, определяемого, по Дарвину, как увеличение приспособленности к выживанию и размножению. Разумеется, общий диапазон изменчивости вновь пополняется в каждом поколении за счет новых мутаций и других форм изменчивости. Но это не отменяет истинности утверждения, что естественный отбор сводит более обширное исходное поле возможностей, включающее преимущественно неуспешные варианты, к более узкому полю успешных вариантов. Это аналогично тому определению информации, с которого мы начали: информация — это то, что позволяет свести априорную неопределенность (исходный диапазон возможностей) к последующей определенности (“успешным” вариантам, выбранным из априорных возможностей). Согласно этой аналогии, естественный отбор по определению представляет собой процесс, поставляющий информацию в генофонд следующего поколения.

Если естественный отбор поставляет информацию в генофонд, то о чем эта информация? О том, как выжить. Строго говоря, она о том, как выжить и размножиться в условиях, преобладавших, когда были живы предшествующие поколения. В той степени, в какой сегодняшние условия отличаются от условий жизни предков, генетические советы предков будут неправильными. В крайних случаях это может привести к вымиранию вида. В той степени, в какой условия жизни текущего поколения не слишком отличаются от условий жизни прошлых поколений, информация, поступающая в геномы текущего поколения от прошлых, будет полезной информацией. Информацию, полученную из времени жизни предков, можно рассматривать как руководство по выживанию для нынешнего поколения — семейную библию “советов” предков о том, как выжить сегодня. Если позволить себе немного поэтической вольности, можно сказать, что информация, поставляемая в современные геномы естественным отбором, это не что иное, как информация о древней среде, в которой выжили предки.

Эта идея информации, поставляемой поколениями предков в генофонд потомков, составляет одну из тем моей книги “Расплетая радугу”. Развитие этой концепции занимает в ней целую главу (“Генетическая книга мертвых”), поэтому я не буду повторять ее здесь. Скажу только две вещи. Во-первых, именно генофонд вида в целом, а не геном конкретной особи, лучше всего рассматривать как получателя поступающей от предков информации о том, как выжить. Геномы отдельных особей — это случайные выборки из современного генофонда, которые делает половая рекомбинация. Во-вторых, наше привилегированное положение позволят нам при желании “перехватывать” эту информацию и “читать” организм животного или даже его гены как зашифрованное описание древних миров. Вот что я написал об этом в книге “Расплетая радугу”: И разве это не захватывающая мысль? Мы цифровые архивы африканского плиоцена и даже девонских морей, ходячие хранилища мудрости давних дней. Можно провести всю жизнь за чтением в этой древней библиотеке и умереть, не пресытившись ее чудесами.

Ричард Докинз. Капеллан дьявола. Размышления о надежде, лжи, науке и любвиРичард Докинз. Капеллан дьявола. Размышления о надежде, лжи, науке и любви