Но теперь настало время для тематики иной
Nov. 1st, 2023 09:00 amНачинает он издалека, констатируя, что все живые существа – и даже некоторые технические устройства, как, например, термостат – способны к категоризации стимулов, поступающих из внешней среды, реагируя на них различным образом: скажем, одни химические вещества привлекают бактерий, другие – наоборот (да, бактериальный хемотаксис, как и термостат – излюбленный пример в таких размышлениях). На вопрос, чем же реакция термостата отличается от реакции бактерии, Девлин отвечает как-то туманно: дескать, для бактерии выделяемые ею категории (он называет их «типами») жизненно важны, а для термостата – нет.
Далее он напоминает, что у низших существ категории жестко генетически запрограммированы, а вот высшие животные за счет пластичности своего мозга способны к созданию новых категорий (иными словами, к образованию условных рефлексов). Именно развитием способности к накоплению все большего числа распознаваемых категорий он объясняет длительный период роста объема головного мозга у наших предков-гоминид.
Способность с созданию категорий тесно связана со способностью к символическому мышлению – тут Девлин пользуется классификацией Пирса и поясняет, что звонок выступает символом пищи для собаки Павлова, поскольку связь между звонком и пищей совершенно произвольна. (То, что этот произвол задан экспериментатором, а не самой собакой, он оставляет без внимания).
Важным этапом нашей эволюции Девлин считает переход к, как он это называет, «оффлайн-мышлению»: к использованию символов, указывающих на объекты вне поля зрения и события, не совершающиеся прямо сейчас. Из органа реагирования на внешние стимулы наш мозг превратился в орган, способный производить стимулы самостоятельно, а реакция на них перестала быть непременно моторной.
Но коллекция категорий-символов – это еще не язык, а протоязык, и именно на этой стадии застревают человекообразные обезьяны, которых исследователи пытаются научить языку. Язык – это коллекция категорий плюс синтаксис, то есть, правила установления связей между категориями.
Вслед за Хомским Девлин считает, что сначала язык появился как инструмент мышления – средство манипуляции символами, а средством коммуникации он стал уже потом. Универсальная грамматика (Девлин убежден в ее существовании) «заточена» под главный предмет нашего обсуждения и в доисторические времена, и сейчас: другие люди, кто из них что делал, когда и с кем. Подавляющее большинство наших разговоров – пересказ сплетен (Девлин приводит цифры в подтверждение этого).
Ну, а причем же здесь математика, и почему только некоторые из нас достигают в ней успеха, если мы все способны к языку? А при том, считает Девлин, что математическое мышление – это те же сплетни, только в роли других людей тут выступают математические объекты. Те, кому удается эта подстановка, и становятся математиками.

(фото 2017 года с его страницы в Стэнфорде)
С некоторых пор я с подозрением стала замечать, что те авторы, чей ясный стиль изложения меня восхищает – как, например, Гай Дойчер – все, как на подбор, оказываются пишущими не на родном языке. Так вот, Кит Девлин – утешительное исключение из этого правила :)
no subject
Date: 2023-11-08 04:13 am (UTC)- В данном случае - нет. Я там дала ссылку на мои слова о трудностях экспериментальной проверки, подтверждая тем самым, что полностью разделяю Ваши аргументы о них и напомнила, что даже высказалась уже об этих трудностях.
//Если Вы имеете в виду аргументацию от простоты алгоритма,//
- Как я выше написала, речь шла не о ней.
//Вы, очевидно, задавали ему на вход искусственные грамматики? //
- Да. Но они были достаточно сложные. То, что предполагает Хомский врожденным, проще.
//Если бы этот алгоритм работал с грамматиками естественных языков, проблема машинного перевода была бы решена.//
- Практически - нет. Хотя общий алгоритм и простой, но настолько неэффективный по использования ресурсов, что он не применяется на практике. (Я уже писала, что у меня это была лишь исследовательская работа - не для практического использования.)
С естественными языками было бы не лучше. Для них есть и еще важное препятствие - необходимость предварительно вручную составить очень длинное и очень точное (не допускающее ошибок) формальное описание языка. Таким путем шли (см. https://en.wikipedia.org/wiki/Natural_language_processing):
"1980s: The 1980s and early 1990s mark the heyday of symbolic methods in NLP. Focus areas of the time included research on rule-based parsing (e.g., the development of HPSG as a computational operationalization of generative grammar), morphology (e.g., two-level morphology[4]), semantics (e.g., Lesk algorithm), reference (e.g., within Centering Theory[5]) and other areas of natural language understanding (e.g., in the Rhetorical Structure Theory)."
Но человек плохо справляется с составлением очень длинных формальных описаний языка, поэтому с возрастанием вычислительных мощностей пошли другим путем:
"Up to the 1980s, most natural language processing systems were based on complex sets of hand-written rules. Starting in the late 1980s, however, there was a revolution in natural language processing with the introduction of machine learning algorithms for language processing."
Возвращаясь к Хомскому: поскольку он предложил в качестве врожденного языкового "процессора" весьма ограниченный случай, для него алгоритм еще проще чем тот, о котором я писала, и с эффективностью лучше дело обстоит. Вдобавок к этому, в человеческом случае даже и при плохой эффективности нет особой проблемы, так как глубина рекурсии у человека мала (фразу на целую страницу люди обычно не воспринимают). А на коротких фразах неэффективность алгоритма незаметна. Вопрос с заданием всех правил языка решается уже во время жизни (другими механизмами).