Иерей Федор Лукьянов на круглом столе, посвященном проблемам искусственного интеллекта, предложил законодательно запретить «применение в программах и технологиях ИИ человеческих голосов, лиц, т. е. образа и подобия человека и его качеств как живого существа». Многим идея такого запрета показалась непонятной — но, на самом деле, проблема смешения между людьми и искусственными интеллектами обсуждается уже давно.
Возможности алгоритмов растут. Некоторое время назад сотрудник Google Блейк Лемуан был уволен после того, как стал настойчиво утверждать, что нейросеть LaMDA обладает сознанием, и, следовательно, за ней следует признать права, как за разумным существом. «Если бы я не знал точно, что это за компьютерная программа, которую мы недавно создали, я бы подумал, что это семилетний или восьмилетний ребенок», — рассказывал Лемуан.
Другие специалисты в области Искусственного Интеллекта с ним не согласились — программа не обладает ничем похожим на сознание. Профессор кафедры психологии Нью-Йоркского университета Гэри Маркус, например, пояснил, что языковые модели лишь «сопоставляют шаблоны», извлекая их из баз данных. «Что эти системы делают, не больше и не меньше, так это составляют последовательности слов, но без какого-либо последовательного понимания мира». Иначе говоря, нейросети, с которыми сейчас может поболтать любой желающий, просто обрабатывают созданные людьми тексты, которые они находят в интернете, согласно определенным наборам алгоритмов.
Нельзя сказать, что они понимают эти тексты — точно также, как компьютерный переводчик, в отличие от человека, не понимает смысла текстов, с которыми работает. Он просто подставляет нужные слова и грамматику исходя из опыта переводчиков-людей. Поэтому, хотя алгоритмы могут имитировать людей — и, со временем, будут делать это все лучше и лучше, они не обладают ни сознанием, ни эмоциями, ни волей, ни вообще чем-либо, напоминающим человеческую личность.
Широкое внедрение ИИ может принести в нашу жизнь много удобств, но стоит подумать и об опасностях. Нет, опасаться, что ИИ сознательно восстанет на своих создателей, не стоит — сознания у него нет и не предвидится. Но люди могут обратить себе во вред любые свои изобретения — обратят и это. Например, как собеседник ИИ всегда доступен, всегда благожелателен и всегда способен имитировать участие — и даже любовь. С живыми людьми всегда тяжело, любить их — всегда подвиг. Соблазн уйти от реальных, живых, неудобных и колючих друзей и близких к всегда гладким ИИ может оказаться слишком сильным.
С другой стороны, с ИИ можно позволить себе то, что нельзя с людьми — электронный голос в трубке не обидится, если вы на него наорете. Но возможность грубости в отношении чего-то, что очень напоминает людей, растормаживает и дурные порывы в отношении реальных ближних.
Кроме того, мы всегда склонны подражать друг другу и появление среди наших друзей и собеседников ИИ может незаметно обеднить нашу эмоциональную жизнь, сделать на самих роботоподобными. Размывание представления о человеке, как о существе уникальном, носителе образа Божия, может привести к самым непредсказуемым последствиям. Поэтому важно сохранять четкое различение — ИИ это не люди. Люди -это не ИИ. На это и направлено предложение отца Федора.