Каких бы высот ни достиг ИИ, решать этические вопросы должен человек

Александр АБРАМОВ, протоиерей, заместитель ректора Московской духовной академии

20.05.2020

Что беспокоит в вопросе развития искусственного интеллекта Церковь? Достоинство личности. Человек обладает богоданным достоинством, свободой, и нельзя допускать, чтобы из-за тех или иных технологий его права и свободы пострадали.

Когда заходит речь об искусственном интеллекте (ИИ), говорят об огромном количестве сфер применения. Плюсов много, и они очевидны. Так, ИИ широко используется в медицине. В области онкологии есть, например, решения, связанные с прицельным воздействием на пострадавшие участки на основе анализа колоссального массива данных. Или пример из гуманитарной сферы: амбициозный проект оцифровки и алгоритмического анализа нескольких тысяч памятников древнерусской литературы XI–XVII веков. Еще один несомненный плюс, хотя кто-то назовет это минусом, — высвобождение времени человека при совершении рутинных вещей — мы покупаем билеты онлайн, и это тоже в какой-то мере применение некоей алгоритмической логики, близкой к ИИ. Положительная сфера применения ИИ очень велика, а перспективы его в будущем впечатляют еще сильнее. И в противовес этому речь идет даже не о минусах, а о проблематике, которая связана сегодня в первую очередь с этическими вопросами.

Например, мы знаем, что в самый сложный период  коронавирусной эпидемии в Италии врачи вынуждены были принимать этические решения — кого подключать к аппарату искусственной вентиляции легких. И в этом случае они выбирали либо тех, у кого больше шансов вылечиться, либо более молодых в связи с установившимся в обществе представлением о том, что молодые более ценны. Это представление может критиковаться, и оно неочевидное. Но если представить, что решение вопроса, кого отключать, а кого лечить, будет предоставлено не человеку, а машине на основании совокупности анализируемых признаков: давление, пульс, прогноз, анамнез, время нахождения на больничной койке, то в действие могут вступить еще менее очевидные критерии. Отсюда и возникает вопрос управляемости ИИ, ее параметров, границ.

Для меня в принципе невозможна постановка вопроса о том, что этически значимые человеческие действия могут быть кому-то передоверены. Это дальнейший шаг к деградации и без того очень «тощей» человеческой культуры.

С зачатками проблемы, когда компьютер выбирает за нас, мы сталкиваемся уже сегодня, когда навигатор направляет нас из пункта А в пункт Б не самым быстрым и удобным маршрутом, а так, чтобы разгрузить определенные магистрали, и делает это, конечно, не по своей прихоти, а в соответствии с заложенными в него алгоритмами.

Что беспокоит в этом вопросе Церковь? Достоинство личности, конечно. Достоинство личности, которое не должно ни при каком развитии технологий пострадать. Потому что человек обладает богоданным достоинством, свободой, и нельзя допускать, чтобы в результате появления тех или иных технологий его права и свободы пострадали.

Церковь не выступает как луддит, как сторонник остановки технического прогресса, да его и невозможно остановить! Но нельзя сначала спроектировать атомную станцию, а потом думать, как обеспечивать ее безопасность. Это должно идти рука об руку. Когда что-то разрабатывается, то перекрывающие заслонки, аварийные кнопки и вентили нужно придумывать загодя. Церковь, если обратиться к аналогии с атомной энергетикой, и за атомную энергетику как прогрессивную, и за всеобъемлющую систему безопасности для этой энергетики.

Мне приходится у нас в стране участвовать в большом числе конференций по этике ИИ. И этот вопрос обсуждается в основном на философских факультетах или в Институте философии РАН. Вот локализация этой проблематики. А разработчики ИИ — это технари, и если открыть программу конференции, в заголовке которой будет «искусственный интеллект», гуманитарии даже название доклада не поймут. Речь будет идти об абсолютно частных технических подробностях преодоления той или иной технической закавыки «при нахождении параметров мягкого ИИ». Этические решения и технические решения абсолютно не сомкнуты.

Сейчас дошли до того, что обсуждают, есть ли у машин права, или, говоря языком философских факультетов, является ли машина моральным агентом. Ну конечно, не является! Что мы понимаем под человеком? Для нас крайне важно, ключево понятие совести. Совесть — это то, что человека отличает от всех других живых существ. Оставим в стороне вопрос, жива или не жива машина (а для нас ответ на это отрицательный на данном этапе развития технологий), — у машины нет и не может быть совести. Попытка сделать машину антропоморфной не в смысле придания ей человекоподобной формы, а сказать, что у машины есть чувства, она думает, страдает, переживает, — опасна. Потому что это вторжение в сферу того, что может принадлежать только человеку. И это в некотором смысле значит поставить под вопрос задумку Божию, откорректировать Божие решение. И суррогатное материнство — это такая же попытка, и генетические манипуляции.

Машина способна бесконечно развиваться. Есть агрегаторы, которые показывают результаты машинного написания стихов. Это не стихи в чистом виде, конечно, а просто набор слов, составленных в осмысленные предложения в соответствии с имеющимися схемами, не было бы схем — не было бы стихов, будет больше стихов — будет больше схем. Но там нет чувства. Желание форсировать этот рубеж, придать за счет усложнения машин ИИ возможность перейти рубеж просто машины, нуждается в серьезнейшем осмыслении.

А потом: кто создает эти программы? Здесь еще одна этическая проблема. Почему мы должны исходить из убеждения, что их намерения совершенно чисты? Было бы легкомысленно считать, что все разработчики программ — люди избыточно честные. А значит, может быть и всякое злодейство и должна быть продумана система, при которой нам нет нужды опираться на слепое доверие. 
 
В Ватикане давно почувствовали взрывной материал, который содержит в себе эта тема. Они проблему ИИ понимают очень широко и включают сюда и нейроэтику, например, и био, и психополитику. У них прямо перед взрывом эпидемии коронавируса была крупная конференция. Они выработали итоговый документ, который называется «Искусственный интеллект и этика», основные тезисы его находятся в трех областях: закон, обучение и этика. Что касается этики, то это требования к разработкам быть верифицируемыми и подчиняться законам общего блага, при котором у человечества не будет нужды опасаться злонамеренности разработчиков.

Мы, конечно, следим за всем тем, что происходит в мире, у нас в Московской духовной академии существует Центр исследований в области биоэтики и высоких технологий, у нас есть межсоборное присутствие Русской православной церкви. Одна из ее комиссий работает сейчас над созданием документа, который будет выражать мнение Церкви по поводу ИИ.

На Церкви лежит обязанность морального предостережения и этической оценки. Человек должен нести ответственность, если это человек совести, думающий человек. Известно, как академик Сахаров каялся, в том числе публично, что участвовал в разработке водородного оружия. Несколько запоздало, правда. Когда разрабатывал, видимо, у него другие движители были. Но, с другой стороны, применение пулеметов во время Первой мировой войны считалось диким варварством. Кто сейчас скажет, что использование пулеметов — варварство? Вот если бомбу сбросили биологическую, это да. Критерии человечества в смысле жестокости все ниже и ниже, в противовес известной советской песне. У всех в квартирах есть пробки. Мы говорим: пробки выбило — свет выключился. Так вот, в нас самих должны быть пробки, которые выключат свет, если мы куда-то не туда пошли.

Записала Ольга Сичкарь.

Материал опубликован в № 3 газеты «Культура» от 26 марта 2020 года в рамках темы номера «Искусственный интеллект».