egovoru: (Default)
[personal profile] egovoru

Вторая книжка современного пифагорейца Макса Тегмарка называется «Life 3.0» (есть и русский перевод, но, кажется, небесплатный). «Жизнь 1.0» характеризуется только дарвиновской эволюцией, «Жизнь 2.0» (наша с вами) – еще и культурной, ну, а «Жизнь 3.0» будет обладать возможностью дизайна не только своего программного обеспечения, но и своего «железа».


На одно возникшее у меня замечание к этой схеме автор отвечает тут же в тексте: да, нашу способность протезировать собственные зубы и сердечные клапаны можно назвать «Жизнью 2.1». Но остается другое, более существенное. Верно, что освоение, например, иностранного языка не требует изменений в нашей ДНК. Но разве только ДНК составляет наше «железо»? А где же в этой схеме учитываются те – вполне физические – изменения числа и структуры синапсов, которыми сопровождается приобретение нового навыка? Так что освоение иностранного языка никак нельзя назвать переписыванием только программы. Другое дело, что, как и в случае с зубными протезами, связанные с ним изменения в структуре мозга не слишком радикальны – но и радикальные изменения, о которых мечтает Тегмарк, не были бы какой-то принципиально новой ступенью.

Столь же проблематична и предложенная Тегмарком классификация мнений об искусственом интеллекте, но по другой причине. Заметьте, речь идет именно об «общем интеллекте», не о способности решать узкий класс конкретных задач. Ну, а как же выяснить, превосходит ли ИИ в этом отношении человеческий разум или нет, если возможных задач – бесконечное множество? На любую задачу, которую ИИ решит успешнее человека, найдется новая задача, для которой он может оказаться непригодным. А раз так, то вся эта схема (как и генерализованный тест Тьюринга, кстати), летит к чертям.


Две иллюстрации из книжки Макса Тегмарка.
Слева – три версии жизни, справа – классификация мнений об ИИ

К счастью, ни одна из этих картинок не важна для основного содержания книжки Тегмарка, посвященной проблеме безопасности ИИ. Я совершенно согласна с автором, что предпринимать шаги для обеспечения этой безопасности нам нужно уже сейчас, независимо от того, насколько далеко нам удастся продвинуться в усовершенствовании ИИ.

Page 1 of 10 << [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] >>

Date: 2021-06-02 02:01 pm (UTC)
From: [identity profile] lj-frank-bot.livejournal.com
Hello!
LiveJournal categorization system detected that your entry belongs to the following categories: IT (https://www.livejournal.com/category/it?utm_source=frank_comment), Литература (https://www.livejournal.com/category/literatura?utm_source=frank_comment), Технологии (https://www.livejournal.com/category/tehnologii?utm_source=frank_comment).
If you think that this choice was wrong please reply this comment. Your feedback will help us improve system.
Frank,
LJ Team

Date: 2021-06-02 02:08 pm (UTC)
From: [identity profile] marigranula.livejournal.com
Ну мне больше нравится идея что мы "переедем" в компьютер, и не простой, а на каких-нибудь сверхбыстрых сверхпроводящих сверхмаленьких сверхэлементах.

Date: 2021-06-02 02:21 pm (UTC)
From: [identity profile] olaff67.livejournal.com
Да, ограничителей в виде этики и производных от нее морали и нравственности в ИИ не поставить. Остаются только законы робототехники в том или ином виде, но при такой прошивке ИИ трудно будет назвать полноценнным разумом.

Date: 2021-06-02 05:00 pm (UTC)
From: [identity profile] nick-55.livejournal.com
Какой криокулер желаете для Вашего будущего ВТСП компьютера - PTR или GM?:))
Второй стоит тысяч так 50 евро, и с ним мумукаться..)

Date: 2021-06-02 05:28 pm (UTC)
From: [identity profile] marigranula.livejournal.com
Зато думать быстро-быстро!

Date: 2021-06-02 05:33 pm (UTC)
From: [identity profile] nick-55.livejournal.com
Вряд ли он будет думать сильно быстрее обычного компьютера. К тому же, и ВТСП элементов потребуется такая наифигова туча. Но, если, конечно, располагаете суммами соответствующего масштаба, пожелаем Вам успеха:)

Date: 2021-06-02 05:42 pm (UTC)
From: [identity profile] marigranula.livejournal.com
Я про будущее :))

Date: 2021-06-02 05:51 pm (UTC)
From: [identity profile] nick-55.livejournal.com
О будущем технической сверхпроводимости высказывал идеи ещё Г.Б. Адамов..в той самой "Тайне двух океанов", когда никаких жёстких сверхпроводников и, тем более, магнитов еще не существовало от слова совсем. Прошла четверть века со времени выхода книги, и вот они появились. Тем не менее, современные СП индуктивные накопители - СПИН или SMES, все же не способны накопить столько энергии, чтобы перемещать подводные лодки со скоростью свыше 100 км/час. Voltage sags в сетях компенсировать - вот это, да, могут.)

Date: 2021-06-02 06:01 pm (UTC)
From: [identity profile] alex-new-york.livejournal.com
“Зато думать быстро-быстро!”

А вот как общаться с теми, кто думает в миллион раз быстрее нас? 😃 Пока мы произносим фразу длиной в тридцать секунд, у них по субъективному времени успевает пройти год 😃

Date: 2021-06-02 06:14 pm (UTC)
From: [identity profile] marigranula.livejournal.com
Ну да, мы им не будем интересны....

Date: 2021-06-02 06:16 pm (UTC)
From: [identity profile] alex-new-york.livejournal.com
А мы не будем понимать, как реагировать на их поток реакций, способных сменять друг друга сотни раз в секунду 😃

Date: 2021-06-02 06:25 pm (UTC)
From: [identity profile] marigranula.livejournal.com
Можно записать, а потом медленно читать.

Date: 2021-06-02 06:45 pm (UTC)
From: [identity profile] alex-new-york.livejournal.com
К тому моменту, как мы прочтем, они уже давно забудут, что сказали, ведь для них к этому моменту пройдут годы 😃

Date: 2021-06-02 09:13 pm (UTC)
From: [identity profile] egovoru.livejournal.com
Литература - лишнее, остальное годится!

Date: 2021-06-02 09:14 pm (UTC)
From: [identity profile] egovoru.livejournal.com
Так Тегмарк именно это и имеет в виду под своей "Жизнью 3.0" :)

Date: 2021-06-02 09:14 pm (UTC)

Date: 2021-06-02 09:17 pm (UTC)
From: [identity profile] egovoru.livejournal.com
Мне кажется, ближайшая опасность - это не то, что ИИ обретет собственную злонамеренную по отношению к людям волю, а то, что он попадет в руки злонамеренных людей. В отличие от, например, завода по обогащению урана, ИИ достаточно портативен.

Date: 2021-06-02 09:24 pm (UTC)
From: [identity profile] olaff67.livejournal.com
Если ИИ понимать как более мощный компьютер, то неизбежно попадет.

Date: 2021-06-02 11:20 pm (UTC)
From: [identity profile] greygreengo.livejournal.com
Отдавая возможность принимать решения в обмен на безопасность, вы не получите ни того ни другого.
Это в полной мере относится к проблеме безопасного ИИ.

Date: 2021-06-03 11:38 am (UTC)
From: [identity profile] egovoru.livejournal.com
А как еще понимать ИИ?

Date: 2021-06-03 11:44 am (UTC)
From: [identity profile] egovoru.livejournal.com
Ну, во-первых, концепция ИИ не обзязательно предполагает перекладывание на него принятие решений: можно использовать его просто как инструмент по обработке информации, необходимой для принятия решений нами самими. А во-вторых, мы ведь уже сегодня перекладываем некоторые решения на технические системы. Наример, светофор "сам" решает, когда ему включить красный, а когда зеленый свет - никакой человек не дает ему такого конкретного распоряжения.

Date: 2021-06-03 12:03 pm (UTC)
From: [identity profile] greygreengo.livejournal.com
Ваш классический отсыл к решению вопроса светофором разбивается о пример когда австралийка простояла три дня на перекрестке у неработающего светофора.

Date: 2021-06-03 12:19 pm (UTC)
From: [identity profile] egovoru.livejournal.com
Мне думается, в этом случае проблема была не в светофоре, а в австралийке - у большинства людей терпение кончается гораздо раньше :)

Date: 2021-06-03 01:24 pm (UTC)
From: [identity profile] greygreengo.livejournal.com
В данном случае, границы терпения и определяют временной интервал того, когда человек от понимания того, что "за него думает машина" приходит к пониманию того, что "а решение принимать надо все-таки человеку". И в этом смысле ИИ может улететь к звездам, как показано на картинке, но решать проблемы со звездами не сможет.

ЗЫ Если есть час времени — посмотрите фильм "2036 происхождение неизвестно" там именно про это.

Date: 2021-06-03 02:00 pm (UTC)
From: [identity profile] olaff67.livejournal.com
Когда я начинаю представлять разум, подобный человеческому, без свободной воли обойтись не получается.
Если же ИИ есть "просто" быстрее думающий компьютер, то качественного скачка не вижу — возрастают только количественные показатели того, что уже есть сейчас. Собственно, в инженерии уже спокойно называют ИИ системы, использующиеся в практике — та же Тесла, например.
Edited Date: 2021-06-03 02:01 pm (UTC)
Page 1 of 10 << [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] >>

Profile

egovoru: (Default)
egovoru

March 2026

S M T W T F S
123 4567
891011121314
15161718192021
22232425262728
293031    

Style Credit

Expand Cut Tags

No cut tags
Page generated Mar. 7th, 2026 02:56 am
Powered by Dreamwidth Studios