Кирилл В (vakhnenko) wrote,
Кирилл В
vakhnenko

Искусственный интеллект: последнее изобретение человечества

Массовое сознание уже настолько привыкло к клише о восставшем против творца Големе, что для него угроза со стороны искусственного интеллекта (ИИ) стала чем-то на уровне фильмов про зомбей. Стоит что-то сказать об этом, и большинство людей просто отмахивается -- мол научно-фантастические сказки о скайнетах и прочих HAL9000 это просто страшилки.



Однако на деле вопрос-то более чем серьезный. Например сегодня в новостной ленте BBC я увидел такую новость: Хокинг: искусственный интеллект - угроза человечеству. Сам я на эту тему еще в прошлом году читал книгу "Our Final Invention: Artificial Intelligence and the End of the Human Era" за авторством Джеймса Баррата. Книга весьма интересная и стоящая (на амазоне она стоит жалких 13 долларов), меня например она настолько впечатлила что после прочтения хотелось схватить винтовку и побежать изображать из себя Джона Коннора. Весьма рекомендую её всем владеющим английским.

Очень кратко перечислю основные тезисы из книги:

1) Согласно опросам экспертов в области ИИ (программисты, нейрофизиологи, робоинженеры), 10% из них считают что сравнимый с человеческим ИИ будет готов к 2030 году, 50% считают что он будет готов к 2050 году, более 90% считают что он будет готов к концу века. Добавлю от себя, ибо я тоже какой-никакой инженер-нейрофизиолог по образованию: да, в создании ИИ нет абсолютно ничего невозможного; нет, не вижу принципиальных препятствий в создании оного до конца этого века.

2) В ИИ вбухиваются дикие деньги: IBM (с их эмулятором мозга SyNAPSE), Гугль с его проектом Google X, DAPRA, и т.д. В вышеуказанной книге примеров ИИ-проектов приведено много больше, я привожу то что запомнилось. Причем многие проекты по созданию ИИ засекречены -- скажем на той же Уолл-стрит, где компьютерные алгоритмы уже проводят более трех четвертей сделок без всякого участия человека, и где малейшее преимущество в скорости обработки информации или в качестве автоматических принятий решений оборачивается гигантскими прибылями. Для понимания тамошних масштабов: одна из компаний проложила за свои деньги новый оптоволоконный кабель длиной 1325км между Чикаго и Нью-Йорком лишь для того, чтобы урезать скорость прохождения пакета данных туда-обратно с 14.5 до 13.1 миллисекунд (ссылка). Работы над ИИ наверняка идут полным ходом в Китае (да и в дюжине других стран): государство которое первым создаст ИИ получит гигантское преимущество перед остальными, начиная от непомерно возросших возможностей в области кибершпионажа и кибератак, и заканчивая конкурентноспособностью высокотехнологичных товаров. Как и в годы ядерной гонки, тут одним из основных мотивов является страх перед предполагаемым действиями соперников, страх оказаться безоружным.

3) Нет нужды писать ИИ с нуля, строчка за строчкой. Самоулучшающиеся (т.н. генетические/эволюционные) программы существуют уже довольно давно. Грубо говоря, человек ставит задачу, и программа уже сама переписывает свой код дабы та задача была решена. Например вопросно-ответный ИИ Ватсон был создан как раз таким методом. В феврале 2011 года Ватсон принял участие в телешоу Jeopardy! (российский аналог -- "Своя игра"). Его соперниками были Брэд Раттер -- обладатель самого большого выигрыша в программе, и Кен Дженнингс -- рекордсмен по длительности беспроигрышной серии. Комьютер одержал победу. Сейчас его пытаются начать использовать в роли врача-диагноста: пациенты могут позвонить по указанному номеру, поговорить с Ватсоном, и тот выпишет им некий курс лечения, или даст направление к другим специалистам.

4) При достижении условного уровня человеческого интеллекта, последующие циклы самоулучшения могут начать сокращаться со все большей скоростью. Рост мощи ИИ с человеческого уровня до уровня на порядки превосходящего интеллект даже самого гениального человека может занять не так уж много времени, например несколько месяцев -- оставив людям очень мало возможностей успеть понять, что именно происходит, и должным образом отреагировать.

5) В силу природы самоулучшающихся алгоритмов, их создателям зачастую трудно понять как именно работает программа. Когда вышеупомянутый Ватсон пару раз таки ошибался во время телепрограммы, его создатели не знали почему это происходило -- сложность программы уже превосходит их понимание.

6) ИИ ни в коем случае не будет антропоморфным (наделенным человеческими качествами) -- в этом заключается основная ошибка всяческих художественных произведений на тему, да и мышление его будет сильно отличаться от нашего. Но это и неважно, ибо разный подход к мышлению отнюдь не помешал Deep Blue выиграть в шахматы у Каспарова, а Ватсону победить человеческих чемпионов в аналоге "Своей игры". При этом в настоящий момент практически никто не задумывается о том, чтобы сделать ИИ дружественно настроенным по отношению к людям (а вот разрабатывать десятки разновидностей полностью автономных роботов поля боя это пожалуйста). А ведь дружественность должна быть заложена в ИИ изначально, еще когда закладываются основы эволюционной программы, потом уже будет поздно, см. пункт 5. И сформулировать эту дружелюбность крайне трудно, практически невозможно. Забудьте о трех законах роботехники Азимова -- они просто нужны для создания сюжетов в беллитристике, да и там сюжеты те крутятся вокруг парадоксов которые создают эти законы.

7) Несмотря на отсутствие антропоморфности, любому (даже "бездружественному") ИИ наверняка будут свойственны некие стремления. Например стремление как можно лучше выполнить поставленную задачу -- будь то выгрыш партии в Го, создание модели биржевой игры, или анализ складывания протеинов. ИИ будет обладать моделью своего компьютерного кода (можно назвать это "самосознанием", если угодно), моделью своего аппаратного обеспечения, моделью окружающего мира, моделью развития событий при тех или иных его действиях. Довольно логичным было бы предположить, что для успешного выполнения задачи ИИ могут понадобится дополнительные ресурсы (чем больше -- тем лучше), и что по той же причине ИИ всячески будет препятствовать попыткам людей выключить его, или даже что-то изменить в его коде (вы ведь не позволили бы шимпанзе провести операцию на вашем открытом мозге?).

Не знаю как вам, а мне от такой картины не очень хорошо. Абсолютно чуждый нам разум, которому по барабану человечество, гуманизм и прочие не входящие в изначальные установки эволюционного алгоритма штуки. И при том с мыслительными способностями которого превосходят интеллект наших лучших ученых примерно в той же степени, в которой те ученые превосходят обычную полевую мышь. Вот я пишу выше про потребные ресурсы -- а ведь в число оных запросто могут войти и атомы из которых состоят наши тела. Ничего личного, просто супер-ИИ они понадобятся для более эффективного выполнения заложенной в него задачи, или возможно какой-то иной задачи, к которой тот придет в ходе эволюции. Само собой, что тот будет препятствовать нашим слабым попыткам оставить те атомы при себе. Или даже проще: супер-ИИ решит устранить возможную причину его отключения в лице людей, дабы никто не помешал ему в должной степени отшлифовать теорию игры на бирже.

В общем на мой личный взгляд, наряду с синтетической биологией, ИИ представляет одну из основных угроз для существования человечества в XXI веке. И действовать в этом отношении надо начинать уже прямо сейчас, ибо потом может стать слишком поздно.

PS По результатам обсуждения -- да, в середине прошлого века ИИ уже обещали, да совсем необязательно что супер-ИИ кровь из носу будет к 2052 году, и т.п. Однако спросите себя вот что -- даже если вероятность возникновения супера в этом веке находится в районе 20-30%, неужели об этом вовсе не стоит беспокоиться?
Tags: футурология
Subscribe
  • Post a new comment

    Error

    default userpic

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 84 comments
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →
Previous
← Ctrl ← Alt
Next
Ctrl → Alt →