Но теперь настало время для тематики иной
Nov. 1st, 2023 09:00 amНачинает он издалека, констатируя, что все живые существа – и даже некоторые технические устройства, как, например, термостат – способны к категоризации стимулов, поступающих из внешней среды, реагируя на них различным образом: скажем, одни химические вещества привлекают бактерий, другие – наоборот (да, бактериальный хемотаксис, как и термостат – излюбленный пример в таких размышлениях). На вопрос, чем же реакция термостата отличается от реакции бактерии, Девлин отвечает как-то туманно: дескать, для бактерии выделяемые ею категории (он называет их «типами») жизненно важны, а для термостата – нет.
Далее он напоминает, что у низших существ категории жестко генетически запрограммированы, а вот высшие животные за счет пластичности своего мозга способны к созданию новых категорий (иными словами, к образованию условных рефлексов). Именно развитием способности к накоплению все большего числа распознаваемых категорий он объясняет длительный период роста объема головного мозга у наших предков-гоминид.
Способность с созданию категорий тесно связана со способностью к символическому мышлению – тут Девлин пользуется классификацией Пирса и поясняет, что звонок выступает символом пищи для собаки Павлова, поскольку связь между звонком и пищей совершенно произвольна. (То, что этот произвол задан экспериментатором, а не самой собакой, он оставляет без внимания).
Важным этапом нашей эволюции Девлин считает переход к, как он это называет, «оффлайн-мышлению»: к использованию символов, указывающих на объекты вне поля зрения и события, не совершающиеся прямо сейчас. Из органа реагирования на внешние стимулы наш мозг превратился в орган, способный производить стимулы самостоятельно, а реакция на них перестала быть непременно моторной.
Но коллекция категорий-символов – это еще не язык, а протоязык, и именно на этой стадии застревают человекообразные обезьяны, которых исследователи пытаются научить языку. Язык – это коллекция категорий плюс синтаксис, то есть, правила установления связей между категориями.
Вслед за Хомским Девлин считает, что сначала язык появился как инструмент мышления – средство манипуляции символами, а средством коммуникации он стал уже потом. Универсальная грамматика (Девлин убежден в ее существовании) «заточена» под главный предмет нашего обсуждения и в доисторические времена, и сейчас: другие люди, кто из них что делал, когда и с кем. Подавляющее большинство наших разговоров – пересказ сплетен (Девлин приводит цифры в подтверждение этого).
Ну, а причем же здесь математика, и почему только некоторые из нас достигают в ней успеха, если мы все способны к языку? А при том, считает Девлин, что математическое мышление – это те же сплетни, только в роли других людей тут выступают математические объекты. Те, кому удается эта подстановка, и становятся математиками.

(фото 2017 года с его страницы в Стэнфорде)
С некоторых пор я с подозрением стала замечать, что те авторы, чей ясный стиль изложения меня восхищает – как, например, Гай Дойчер – все, как на подбор, оказываются пишущими не на родном языке. Так вот, Кит Девлин – утешительное исключение из этого правила :)
no subject
Date: 2023-11-07 09:40 pm (UTC)Если Вы имеете в виду аргументацию от простоты алгоритма, то она не кажется мне сколько-нибудь убедительной. Кстати, я хотела уточнить: когда Вы работали с этим простым алгоритмом, Вы, очевидно, задавали ему на вход искусственные грамматики? Если бы этот алгоритм работал с грамматиками естественных языков, проблема машинного перевода была бы решена.
"не хватит обязьян, чтобы перепробовать варианты"
Вероятно, область поиска можно сузить, изучив, на какие именно гены приходятся эти различия. Где-то мне попадались сведения, что различия сводятся примерно к 50 генам, которые то ли есть у нас и нет у шимпанзе, то ли наоборот. Для многих генов мы умеем предсказывать функции, так что некоторые гены можно было заведомо исключить. И т.д.
"речь не об одном гене, а о единичном событии (мутации), изменившем какое-то небольшое количество генов"
Если мы понимаем под мутацией, например, хромосомную перестройку, когда целый кусок хромосомы перемещается из одного места в другое (или вообще утрачивается), то, конечно, такая мутация затрагивает сразу много генов. А мутация, состоящая в дупликации генома, затрагивает вообще все гены организма. Но очень маловероятно, чтобы, например, замена А (аденозина) в N-й позиции одного гена на С (цитозин) произошла одновременно с такой же заменой в другом гене. Каждый цикл удвоения клеточной ДНК может совпровождаться несколькими заменами такого рода, но в клетке нет механизма, производящего их координированно, и ничего подобного экспериментально не обнаружено. То же касается и любых других замен, одинаковых или разных.
Подозреваю, у Хомского очень слабые представления о мутациях, а Бервик, который читает лекции по эволюционной биологии, скорее всего, по образованию computer scientist, для которого ДНК - это просто текст (я заглянула в одну из его работ). Но, опять же, надо сначала прочесть книжку, чтобы разобраться, что именно они утверждают. Пока что никаких оснований требовать именно единичной мутации я не вижу.
А вот что Вики пишет на этот счет:
"The single-mutation theory of language evolution has been directly questioned on different grounds. A formal analysis of the probability of such a mutation taking place and going to fixation in the species has concluded that such a scenario is unlikely, with multiple mutations with more moderate fitness effects being more probable.[78] Another criticism has questioned the logic of the argument for single mutation and puts forward that from the formal simplicity of Merge, the capacity Berwick and Chomsky deem the core property of human language that emerged suddenly, one cannot derive the (number of) evolutionary steps that led to it.[79]"
no subject
Date: 2023-11-08 04:13 am (UTC)- В данном случае - нет. Я там дала ссылку на мои слова о трудностях экспериментальной проверки, подтверждая тем самым, что полностью разделяю Ваши аргументы о них и напомнила, что даже высказалась уже об этих трудностях.
//Если Вы имеете в виду аргументацию от простоты алгоритма,//
- Как я выше написала, речь шла не о ней.
//Вы, очевидно, задавали ему на вход искусственные грамматики? //
- Да. Но они были достаточно сложные. То, что предполагает Хомский врожденным, проще.
//Если бы этот алгоритм работал с грамматиками естественных языков, проблема машинного перевода была бы решена.//
- Практически - нет. Хотя общий алгоритм и простой, но настолько неэффективный по использования ресурсов, что он не применяется на практике. (Я уже писала, что у меня это была лишь исследовательская работа - не для практического использования.)
С естественными языками было бы не лучше. Для них есть и еще важное препятствие - необходимость предварительно вручную составить очень длинное и очень точное (не допускающее ошибок) формальное описание языка. Таким путем шли (см. https://en.wikipedia.org/wiki/Natural_language_processing):
"1980s: The 1980s and early 1990s mark the heyday of symbolic methods in NLP. Focus areas of the time included research on rule-based parsing (e.g., the development of HPSG as a computational operationalization of generative grammar), morphology (e.g., two-level morphology[4]), semantics (e.g., Lesk algorithm), reference (e.g., within Centering Theory[5]) and other areas of natural language understanding (e.g., in the Rhetorical Structure Theory)."
Но человек плохо справляется с составлением очень длинных формальных описаний языка, поэтому с возрастанием вычислительных мощностей пошли другим путем:
"Up to the 1980s, most natural language processing systems were based on complex sets of hand-written rules. Starting in the late 1980s, however, there was a revolution in natural language processing with the introduction of machine learning algorithms for language processing."
Возвращаясь к Хомскому: поскольку он предложил в качестве врожденного языкового "процессора" весьма ограниченный случай, для него алгоритм еще проще чем тот, о котором я писала, и с эффективностью лучше дело обстоит. Вдобавок к этому, в человеческом случае даже и при плохой эффективности нет особой проблемы, так как глубина рекурсии у человека мала (фразу на целую страницу люди обычно не воспринимают). А на коротких фразах неэффективность алгоритма незаметна. Вопрос с заданием всех правил языка решается уже во время жизни (другими механизмами).