Ответ Алана Тьюринга на возражение леди Лавлейс

485
0

Политех представляет книгу Уолтера Айзексона «Инноваторы» – историю цифровой революции. Айзексон связывает биографии тех, кому мы обязаны появлением компьютеров и интернета, воедино, рассказывает, как идеи первых инноваторов становятся источником вдохновения для следующих, образуя бесконечную цепь причин и следствий.

Но озарения приходят не только из мира науки – корни многих важнейших вопросов в области информационных технологий лежат в сфере искусства. Например, проблему искусственного интеллекта Айзексон связывает с образом чудовища Франкенштейна. Почему Ада Лавлейс считала, что машина не может мыслить, и что на это возразил Алан Тьюринг? Вот как об этом рассказывает Айзексон.

В «Примечаниях» [Ады Лавлейс] содержалась еще одна важная концепция, которая возвращает нас к истории Франкенштейна, сочиненной Мэри Шелли во время выходных, проведенных с лордом Байроном. В ее истории был затронут самый волнующий метафизический вопрос, касающийся компьютеров, актуальный до сих пор, а именно – вопрос об искусственном интеллекте, точнее о том, может ли машина мыслить.

Ада в это не верила. Машины, например машины Бэббиджа, могут выполнять операции в соответствии с инструкциями, считала она, но они не могут самостоятельно выдвигать идеи или иметь намерения. «Аналитическая машина не претендует на создание чего-то своего, – писала она в своих “Примечаниях”, – она может выполнить любую команду, которую мы сумеем задать. Она может провести анализ, но от нее никак нельзя ожидать вывода каких-либо аналитических соотношений или установления законов». Столетие спустя один из создателей первых компьютеров – Алан Тьюринг – назвал это утверждение «Возражением леди Лавлейс». <...>

Затем я сделал еще более важное открытие. Я понял, что эти люди умеют сообщать друг другу свои мысли и чувства с помощью членораздельных звуков. Я заметил, что произносимые ими слова вызывают радость или печаль, улыбку или огорчение на лицах слушателей. Это была наука богов, и я страстно захотел овладеть ею. Но все мои попытки кончались неудачей.

Мэри Шелли, «Франкенштейн, или Современный Прометей»

Тьюринг задался вопросом: если машина может изменить свою собственную программу на основе обрабатываемой ею информации, не форма ли это обучения? Не может ли это привести к созданию искусственного интеллекта?

«Считается, что вычислительные машины могут выполнять только такие задачи, на которые им даны команды, – объяснил он в докладе, сделанном на Лондонском математическом обществе в феврале 1947 года. – Но необходимо ли, чтобы они всегда использовались таким образом?» Затем он обсудил возможности новых компьютеров с сохраняемой программой, которые могут сами изменять таблицы команд, и продолжил: «Они могли бы стать похожими на учеников, которые многому научились у своего учителя, но добавили гораздо больше своего. Я думаю, что, когда это произойдет, придется признать, что машина демонстрирует наличие интеллекта».

[По мнению Ады Лавлейс,] в отличие от человеческого разума, механическое устройство не может иметь свободу воли или выдвигать свои собственные инициативы. Оно может только выполнять то, что запрограммировано.

Гениальным ответом на «возражение леди Лавлейс» был аргумент, что на самом деле машина может учиться, тем самым превращаясь в мыслящее исполнительное устройство, которое способно производить новые мысли. «Вместо того чтобы писать программу для имитации мышления взрослого человека, почему бы не попробовать написать программу, которая имитирует мышление ребенка? – спрашивает он. – Если запустить соответствующий процесс обучения, можно было бы в конце концов получить интеллект взрослого человека».

Он признал, что процесс обучения компьютера будет отличаться от процесса обучения ребенка:

«К примеру, его невозможно снабдить ногами, так что ему нельзя предложить сходить собрать уголь в ящик. Вероятно, у него не может быть глаз… Нельзя послать это существо в школу – для других детей оно будет посмешищем». Поэтому бэби-машина должна обучаться по-иному. Тьюринг предложил систему наказаний и наград, которая будет поощрять машину повторять некоторые действия и избегать других. В конце концов такая машина могла бы развивать свои собственные представления и объяснения того или иного явления.