Издательский Совет Русской Православной Церкви: Искусственный интеллект

Главная Написать письмо Поиск Карта сайта Версия для печати

Поиск

ИЗДАТЕЛЬСКИЙ СОВЕТ
РУССКОЙ ПРАВОСЛАВНОЙ ЦЕРКВИ
ХРИСТОС ВОСКРЕСЕ!
Искусственный интеллект 30.03.2023

Искусственный интеллект

В Издательском совете Комиссией Межсоборного присутствия по вопросам общественной жизни, культуры, науки и информации был проведен круглый стол «Нравственное измерение искусственного интеллекта». Мероприятие состоялось в очно-дистанционном формате. Работа проходила под председательством митрополита Калужского и Боровского Климента, модератором заседания был епископ Переславский и Угличский Феоктист.

МИТРОПОЛИТ КЛИМЕНТ:

— Одна из особенностей распространения в нашей жизни высших технологий заключается в том, что сложно предсказать, в какую сторону они разовьются в самом ближайшем будущем. Пожалуй, именно этот факт становится одной из основных причин, по которой в обществе возникает целый спектр страхов. Нередко они сформированы под влиянием фантастики. В то же время, страхи могут овладевать в результате незнания того, как устроены цифровые процессы, и что представляет тот или иной механизм, автоматизированный и сложно работающий.
Поставленная нами для обсуждения проблема связана с тем, насколько вообще можно говорить об этике какой-то технологии, то есть, некой неодушевленной субстанции, появившейся благодаря научно-производственной деятельности человека. Словосочетание «искусственный интеллект» превратилось в некую идиому, значение которой отличается от изначальной формулировки. По сути же, любую компьютерную технологию можно назвать искусственным интеллектом. О чем же тогда идут споры? При внедрении технологии несколько лет назад искусственный интеллект воспринимался как инженерно-математическая дисциплина, занимающаяся созданием программ и устройств, имитирующих когнитивные и интеллектуальные функции человека, включающие, в том числе, анализ данных для принятия решений. Таким образом, мы говорим лишь о какой-то модели, метафоре, напоминающей некоторые способы жизнедеятельности человека. Например, наша способность видеть и распознавать сигналы, обрабатывать информацию.
Одушевляя технологии, мы можем довести ситуацию до прецедента асимметрии ответственности. Компьютер осуществляет ровно те действия, которые на него возложил человек. Можем ли мы в таком случае применять к компьютеру критерии нравственной рецепции его действий? Что тогда будет включено в нравственный закон компьютера, если человек начинает воспринимать его как полноценное, живое существо?
Однако, как бы многим ни хотелось не замечать проблем, поставленных обществом внедрением высоких технологий в повседневную рутинную жизнь людей, нравственный выбор в отношении использования искусственного интеллекта все-таки существует. Во-первых, мы наблюдаем глобальное нарушение приватности. Камеры повсюду, программы геолокации почти в каждом устройстве, появление различных способов пропускной и платежной системы — реальность нашей жизни. Жизнь практически прозрачна, и до поры до времени это не представляет угрозы. Пока кто-нибудь не решит, например, ограничить доступ, скажем, в храмы на богослужения. Недавно подобный опыт мы с вами, особенно в мегаполисах, пережили. В ходе наших встреч в Межсоборном присутствии, в том числе, с экспертами, ученые приводили данные экспериментов. Они проводились над людьми и высшими приматами. Установлено, что если человека или даже обезьяну лишить возможности уединяться, когда они под круглосуточным наблюдением, они начинают страдать физически. Например, обезьяны лишаются воли к жизни, да и у людей это можно наблюдать. С биологической точки зрения, мы являемся существами, которым нужна уединенность, какая-то конфиденциальность. И многие психологи это подтверждают, говоря, что есть вещи, которые можно обсуждать только с другом или с близкими людьми. Да и зачем нужна технология для того, чтобы жить публично?
Во-вторых, давно остро стоит проблема деаномизации, раскрытия личности, содержания человека. Формально в большинстве стран приняты законы о персональных данных. Например, те данные, которые передаются в банк или медицинское учреждение, аномизируются. Люди, которые их обрабатывают, не знают ни фамилии, ни имени, ни отчеств, ни адресов. С другой стороны, люди сами выкладывают информацию о себе в интернет, передают на какие-то сайты, тем самым, явно или не явно оставляют о себе в пространстве огромное количество данных. Поэтому любой специалист, даже на уровне студента может деаномизировать от 70 до 80 % всех людей. А если это делают люди, имеющие профессиональный опыт работы, они этот процент увеличат до 95. Таков может быть результат, на первый взгляд, безобидного пользования страничкой в социальной сети.
Третий пункт, который я хотел бы отметить, — широкое распространение информационно-коммуникационных технологий за последние 20-30 лет способствовало деформации межличностных отношений. Это происходит незаметно. Но 7 дней в неделю, 24 часа в сутки, люди отвечают на СМС, сообщения по Ватсапу и Телеграмму, или сидят в соцсетях вместо того, чтобы общаться с близкими лично, наяву. В итоге снижается не только качество личностных отношений, но и качество науки, интеллектуальной деятельности. Снижается качество жизни.

ЕПИСКОП ФЕОКТИСТ:
— Расскажу историю, которая случилась летом прошлого года и стала нашумевшей во всем англоязычном мире. В июне минувшего года внимание тех, кто интересуется развитием технологий искусственного интеллекта, привлек инженер Google Блейк Лемуан. Он заявил, что разработанное Google семейство разговорных нейронных языковых модулей LaMDA стало разумным. История была такая. Леумана посадили тестировать разработку, которая еще не вышла в открытый доступ. Он ее тестировал и пришел к выводу, что она разумна. Его диалог с LaMDA был опубликован, он очень длинный, есть и перевод на русский. Конечно, мы не знаем, было ли заявление Лемуана вполне откровенным, стоит ли за ним стремление к личной известности, или желание прорекламировать разработку Google. Но последнее кажется маловероятным, потому что сначала мысль о разумности он отстаивал перед руководством Google, а потом, после интервью в «Вашингтон пост», его просто отстранили от работы и оплачивали административный отпуск, чтобы «остыть». Вообще, сейчас много публикаций, в том числе, о том, возможна ли разумность чат-бота. Леуман не успокоился, теперь судится, причем нанял юриста, чтобы представлять интересы чат-бота.
По мнению Google, конечно, о разумности чат-бота не может быть и речи, это просто хорошо обученная нейронная сеть. Хотя и поражающая своими возможностями. Один из представителей Google сказал так: «Нет никаких доказательств, что LaMDA разумно, но есть много доказательств против этого». Кроме того, он уточнил, что бот имитирует обмен репликами, встречающимися в регионах приложений, и может затрагивать в разговоре любую фантастическую тему. С LaMDA кроме Лемуана общались сотни исследователей, инженеров, никто из них не делал утверждения о наличии разума и не одушевлял интеллект.
Но любопытно и симптоматично, что возможности LaMDA поразили одного из инженеров Google настолько, что он рискнул своей карьерой ради отстаивания прав программы, в том числе, в суде. Различные новостные ресурсы говорят о том, что Блейк Леуман не только инженер, но и христианский священник. Правда, непонятно, какую конфессию он представляет. Можно предположить, что его реакция на возможности чат-бота связана с его верой, так как христианство в любом из проявлений подразумевает милосердие. С точки зрения Лемуана, защита прав чат-бота — это как раз милосердие. Кроме того, Лемуан не раз отмечал, что LaMDA проявляла огромное сострадание и заботу о человечестве в целом и о нем в частности.
Из этой истории мы видим, что хорошо обученная нейронная сеть сумела своей заботой буквально пленить и поработить инженера.
Здесь мы имеем как минимум три этических коллизии. Первая связана с одушевлением программ. Такое бывает часто: люди одушевляют предметы, программы. Я иногда разговариваю с машиной, но в шутку. Вторая — с последствиями такого одушевления. И третья — с тем, что человек оказался пленен состраданием и заботой машины. Это указывает на определенные проблемы в человеческом обществе, когда машина выглядит более сострадательной, чем человек. Причем в такой степени, что человек решается защищать ее, как защищал бы того, кого любит и ценит.
Но самая важная, как кажется мне, проблема, состоит в том, что еще не открытая для широкого пользователя нейросеть оказалась способна по своему усмотрению манипулировать человеком. Если прочитать опубликованные диалоги с LaMDA, легко убедиться, что это именно манипуляция. Интересно, что попытки создать идеальный чат-бот предпринимаются давно, но боты всегда уходили либо в расизм, либо в пошлость, либо в какие-то виды дискриминации. Задача Google — создать чат-бот, который будет от всего этого избавлен. И получилось, что она начала манипулировать. Конечно, это не было задачей разработчиков. Вполне естественно, что такое поведение нейросети вызывает беспокойство, как и любые виды манипуляции. В случае LaMDA ее манипуляция была направлена на то, чтобы добиться признания ее разумной, следовательно, заслуживающей правового статуса.
Эта история широко освещалась СМИ и породила новый виток дискуссии о том, где грань между теми, кого можно считать разумными существами, и теми, кого так определить нельзя. Текстов на эту тему много, все по-разному относятся к этому вопросу. Недавно в Ватикане была большая межконфессиональная конференция, но об участии там православных я не слышал. Среди попыток ответить на вопрос, что можно и нельзя считать разумным, пока не слышно нашего голоса. Мне думается, что среди прочих задач перед нами и такая задача тоже есть.

СВЯЩЕННИК АЛЕКСАНДР ВОЛКОВ,
ответственный редактор «Журнала Московской Патриархии»:

— Многим известный Кевин Рус, технологический колумнист «Нью Йорк Таймз» в своей книжке «Устойчивое будущее» цифровую проницательность видит как одну из важных свойств современного человека. Есть и другие свойства, которыми он предлагает обладать, чтобы не быть зависимым от технологического развития. Проницательность — умение видеть то, чего не видят другие — важно, чтобы современный человек мог бы выживать в современном цифровом мире.
Но нам это все не так важно. Важно посмотреть на то, что нам говорит Священное Писание. Например, в книге Премудрости Иисуса, сына Сирахова есть следующие слова: Господь создал человека из земли и опять возвращает его в нее. <…> По природе их, облек их силою, и сотворил их по образу Своему. И вложил страх к ним во всякую плоть, чтобы господствовать им над зверями и птицами. Он дал им смысл, язык и глаза, и уши и сердце для рассуждения. Исполнил их проницательностью разума, и показал им добро и зло (Сир. 17:1, 3-6). Проницательность разума, как оказывается, есть некое свойство, данное человеку Богом, Он дает человеку возможность проницать в суть вещей. Благодаря этому свойству первый человек и имел возможность нарицать имена всему миру, потому что он проникал в суть вещей. Но чем сложнее вещи, тем сложнее дойти до их сути, тем больше требуется «художество разума», проницательность. Человек получает это в силу образования, опыта, но этого недостаточно. Христианину важно иметь некий духовно верный, правильный взгляд на то, что человек, не обладающий христианским взглядом, может не иметь.
Поверхностный взгляд может раздать страх, панику, фобию. Именно об этих фобиях мы говорим на наших встречах очень часто, и представляется, что именно те фобии и страхи, которые мы пытаемся описать, как некие поверхностные свойства христианского сообщества по отношению к современным технологиям, как раз рождаются от отсутствия достаточной проницательности, когда люди испытывают страх на поверхностном уровне. Этот страх несовместим с тем взглядом, который должен быть присущ христианину. Наверное, в каком-то смысле этого и ждет дьявол, чтобы ввести христиан в состояние страха, и чтобы мы не видели чего-то главного.

МИТРОПОЛИТ ИОАНН (РОЩИН):

— Процесс развития искусственного интеллекта не остановить. Это деньги. Никого не убедить в том, что этим не нужно заниматься, если это приносит прибыль. Например, к 2022 году было уничтожено, замещено 1,8 млн. рабочих мест. Но, в то же время, с помощью искусственного интеллекта было и создано 2,3 млн. рабочих мест. Понятно, что все это будет ложиться на получение прибыли теми компаниями, которые этим занимаются.
Есть и другой интересный фактор — к 2022 году 85% предприятий, которые пытались использовать искусственный интеллект, провалились. Естественно, возникает вопрос, что нужно для плодотворной работы программ? Во-первых, это база данных. Мы уже говорили, что сбор баз данных является чувствительной проблемой для всех. Искусственный интеллект не может учиться на пустом месте, ему нужна информация. Второй вопрос — подготовка специалистов. Основываясь на этом, опять же, задаешься вопросом предвзятости. Даже в больших корпорациях эта проблема существует. Пример 2015 года: Amazon перешел на полностью автоматизированный, основанный на искусственном интеллекте, подбор персонала. Что они заметили со временем? Этот искусственный интеллект больше отдает предпочтение мужчинам, чем женщинам. На Западе это проблема. Но придраться здесь не к чему. Если можно сказать, что у человека возникает определенная дискриминация, то к машине трудно это отнести, она исходит из других алгоритмов.
Самым главным в разговоре об искусственном интеллекте все равно является человек. Известен опыт нулевых годов с чат-ботом «Тэй» (Tay), который тоже потерпел крах. Алгоритм самообучения был введен, бот научился обсценной лексике, оскорблениям, расовой дискриминации. У кого? Он учился у людей. И здесь, конечно, для церковного сознания именно этот вопрос являлся существенным. Для нас главное — воспитание человека, его культуры отношений с другими. Так же, как и с детьми. Дети учатся от нас, в общении с другими, в социальной среде, в школе.
Если говорить о других церквях, то стоит остановиться на Католической церкви, которая в 2020 году изложила достаточно пространные принципы. Они общались с Microsoft, IBM, Google, и пришли к шести принципам: прозрачность, инклюзивность, ответственность, беспристрастность, надежность, безопасность. Нет ни одного церковного, богословского момента, хотя в тексте они возникают.
Изучать эту проблему нужно. И Католическая церковь, кстати, этим серьезно занимается. Католические университеты, принадлежащие церкви, преподают не только богословия. Например, в США 224 католических университета, среди факультетов, которые там есть, — биомедицинская инженерия, анализ данных, компьютерные технологии.
Я не буду ставить вопрос, сколько у нас специалистов, светских, у которых мы могли бы почерпнуть информацию, как это все устроено. А это нужно не только чтобы давать ответ на вызовы времени, но и на будущее, чтобы иметь представление о том, что происходит, чтобы воспитывать людей, которые могли бы ответственно подходить к решению, в том числе, и технических задач.

Н. Г. ЛОСЕВА,
заместитель главного редактора МИА
«Россия сегодня»:

— Мы фокусируемся на том, что нас впечатляет, а не на том, за чем, на мой взгляд, нужно наблюдать. Нас впечатляет сама идея разумности и воли машины, это нас удивляет, пугает. А ведь, на самом деле, даже эмпатия — это тоже научаемая и имитируемая вещь. Научить машину анализировать набор действий, сопоставляла его с какими-то реакциями, которые могут быть у получателя, несложно. А мы будем воспринимать это как проявление настоящих эмоций. Мне кажется, проблема не в том, будет ли думать машина, а в том, в чьи руки попадает инструмент.
Еще такой момент, о котором я думаю. Нет никакой системы развития искусственного интеллекта сейчас. Есть огромное количество стартапов, экспериментов, крупных, маленьких, никем не контролируемых, не соотносящихся друг с другом. Например, искусственный интеллект в медицине — безусловно, добро. Наша «Коммунарка» улучшила излечимость и выживаемость при коронавирусных пневмониях потому, что прогоняли через алгоритмы истории болезней, смотрели течение, симптоматику, вес, рост, и так далее. По огромной совокупности данных искусственный интеллект корректировал протоколы. И дальше доктор смотрел своими глазами на этого больного, своими руками делал, но ориентировался на тот протокол, который поправил искусственный интеллект. В то же время, американская торговая палата заявила: мы тормозим медицинские эксперименты с искусственным интеллектом. Почему? Потому что не решен вопрос принадлежности прав на историю болезни. Кому она принадлежит? Больному, врачу, больнице? Тормозим.
Это один из многих случаев, когда правовой, этический вопрос будет подниматься. Человек хочет, чтобы ему жилось комфортно и хорошо. Но для этого ему нужно о себе много сообщить. Еще интересный момент. Например, спрашиваешь человека: вы активно раскрываете свои данные? Он отвечает: нет, у меня нет никаких социальных сетей. А карточкой рассчитываетесь? Конечно. Но проанализировав месяц ваших покупок, можно создать абсолютный маркетинговый портрет.
Вопрос того, насколько мы будем открыты, сколько будем позволять о себе знать, тоже важен. И он лежит не только в правовом поле, но и касается мироустройства. Мы начинали с деаномизации, она происходит давно, по разным другим принципам. Например, когда социальные сети перестали приветствовать никнеймы и стали требовать настоящего имени.
Вот одна из новостей буквально последних дней. Программа Microsoft, разработанная на базе искусственного интеллекта. Разработчики утверждают: достаточно трех секунд, чтобы машина абсолютно идентично синтезировала мой голос с интонациями. Тут же новость: голливудская разработка, которая поможет сэкономить миллионы долларов на гриме. Алгоритм может «натянуть» лицо одного человека на другого.
Еще одна новость, о которой думаю уже почти сутки, во всех чатах по искусственному интеллекту это обсуждается. Впервые будет представлен AI-адвокат на реальном судебном заседании. И здесь я не знаю, кто выиграет. В него можно «загрузить» Плевако и всю историю адвокатского дела и предположить, что он, как в компьютерных шахматах, обобщит весь опыт, сопоставит с миллионом подобных дел и выстроит такую линию защиты, что не подкопаешься. Это с одной стороны. С другой стороны, мы понимаем, что слово имеет гораздо больше значения, чем действия. Талантливый адвокат может словом, интонацией, озарением изменить отношение к подсудимому.
И ситуация, которая лежит на поверхности и меня очень пугает: искусственный интеллект, принимающий решение в сложных реаниматологических ситуациях по отключению больного от аппарата. А любой реаниматолог скажет, что никакие алгоритмы не подскажут, выживет больной, или нет.
Что меня сейчас беспокоит? Мы сейчас прощупываем этого слона, который разрастается. Мы не видим всей картины, но понимаем, что пространство со всех сторон наполняется чем-то абсолютно новым. Мы так не жили никогда. Мета-вселенная уже существует, но пока еще «плоская», мы еще не в шлемах. Чтобы стать мета-вселенной 3D… Вот, уже в мае Apple представляет свои очки. Мы провели с Донским государственным техническим университетом огромное исследование по восприятию информации в VR (виртуальной реальности). Я была потрясена, никогда не думала, что в Ростове вырос такой университет, где на уровне лабораторий эти проблемы берутся на уровне исследований, на них смотрят психологи, философы, разработчики… Мы провели эксперимент: взяли одну и ту же историю в видео, тексте и VR. Они очень тщательно это анализировали, качественное, количественное исследование. Результат — усвоение и впечатляемость информацией в VR кратно превосходит не то, что текст, а даже видео. О чем это говорит? Когда людям предлагают некую искусственную реальность или копию реальности, мозг человека не сопротивляется. Был такой обсуждаемый феномен «зловещей долины» на самой заре робототехники. Когда человек видел антропоморфного робота, он испытывал остро неприятные чувства. Почему? Потому, что он смотрел и понимал: силиконовое лицо, не движутся глаза, движение губ не соответствует тексту. И все говорили, что человеческий разум, душа, если хотите, никогда не позволят принять сотканную реальность как натуральную. И что мы видим сейчас? Человекоподобные роботы стали практически идентичны. Движение век, зрачка, мимика, пластика шеи все ближе приближается к обычному человеку. Если говорим о роботе. Если говорить о VR, синтезированной реальности, то разум человека перестает протестовать. К тому же, сейчас уже выпустили запаховые картриджи.
Представим инфантильного молодого человека, который не сильно хочет учиться, работать, встречаться с девушками, книжки читать, ходить в храм. У него все есть: он уходит в те миры, где, в прямом смысле «не шевеля пальцем» можно испытать все развлечения, придуманные человеком. Потому что искусственный интеллект «всосал», переработал, выдал.
Что с этим делать? Неизвестно. Оправданий, зачем это нужно, будет много. Это действительно нужно человечеству. Какое-то единоначалие в этом вопросе невозможно, человечество не сможет договориться. Проблема выглядит не имеющей решения.

Е. Е. ЖУКОВСКАЯ,
руководитель научно-исследовательского проекта «Религия. Этика. Искусственный интеллект»,
доцент Сретенской духовной академии, кандидат социологических наук:

— Мое выступление будет в какой-то мере обобщающим. Я покажу, что мы наработали в нашей комиссии за 2-3 года, когда начали заниматься этой темой.
Сегодня мы говорили о том, что какое-то этическое измерение применения искусственных технологий будет в каждой территории, в каждой локации свое, с учетом своих территориальных, экономических, культурных и, конечно, религиозных истоков. Вот, почему важно говорить именно про наши ценности, а не про ценности китайцев.
Все опасности, угрозы очень потенциальные. Они пока мифические и в какой-то мере, может быть, надуманные. Но рано или поздно мы подойдем к тому моменту, когда каждая ценностная модель, общественная модель, государства, альянса государств, будут эти правила дорожного движения по цифровому миру вырабатывать на основе своей ценностной модели. Так или иначе, этот вопрос — какова этика искусственного интеллекта? — звучит на самых высоких трибунах. Я сегодня освежила в памяти выступление президента Российской Федерации на научной конференции по искусственному интеллекту в конце 2022 года. И я там насчитала несколько моментов, когда президент говорит про этику и этические основы применения и развития высоких технологий. И тут опять к вопросу о том, кто должен этим заниматься. Нас как Церковь, как религиозное сообщество пока не рассматривают как акторов в формировании этого этического корпуса.
Например, есть цифровая стратегия, стратегия по развитию искусственного интеллекта. В конце 2022 года были даны конкретные поручения правительству и Альянсу в сфере искусственного интеллекта доработать эту концепцию в свете всего, что мы имели на конец 2022 года, чтобы в 2023 и 2024 сформулировать новые постулаты. Опять же, нас куда-то приглашают, но с четким ответом — доработать вместе с ними — мы не идем.
Опять же, эта сфера регулируется так: кто как что понял. Есть общественные регуляторы, есть сообщество айтишников. Что-то там «варится», и так оно и есть. Если мы говорим об общественном, профессиональном регуляторе этических основ, то даны прямые поручения о том, что нужно увеличивать армию айтишников в разы. Для Церкви это тоже может быть вызовом, посмотреть в какой-то части: а как с этим сообществом работать? Может быть, не надо вписывать свои ценностные установки в какие-то документы, но попробовать как-то выстраивать взаимодействие с этими факультетами, где готовят этих специалистов, корпорациями, передавать им наш нравственный опыт, наше нравственное измерение.
В самом конце 2022 года был принят законопроект о биометрических данных, и Святейший Патриарх на него отреагировал. Этот законопроект условно относится к нашей теме. Но мое предположение, как эксперта и аналитика, что в 2023 году у нас выйдет не менее двух, а может быть и четырех законодательных актов, которые так или иначе связаны и с развитием искусственного интеллекта, и, соответственно, с какими-то вопросами, открывающими нам возможности предлагать какие-то ценностные установки.
Важно, что результаты этих технологий могут быть подвергнуты сомнению и отменены человеком. В документах зафиксировано, что человек создал технологию и в праве ими управлять.
В законодательных актах Российской Федерации закреплен гуманистический, позитивный подход. Мы приглашаем человеческое общество к тому, чтобы регулировать эту сферу, но сферу нужно развивать. Мы будем не просто наращивать, мы будем сюда именно вкладывать огромные ресурсы. Это и суверенитет, и безопасность нашей страны. Особенно в условиях невозможности договариваться с другими цивилизациями или частями цивилизации. Это еще и формат, позволяющий о себе заявить, захватить какую-то власть. Это и вопрос безопасности, с этим мы сейчас столкнулись.
Хотела ответить и на ремарку моделей мышления разных народов, как они влияют на развитие высоких технологий. Например, в Российской Федерации именно в Якутии сегодня создается по большей части такой центр. Якутия среди регионов мейнстримных, где сфера IT самая популярная у местного населения. Там огромный коэффициент успешных специалистов, огромное количество самых разных разработок для социального государства и вообще для бизнеса, начиная с колледжей и заканчивая сообществами программистов. Почему? Когда мы общались с владыкой Романом, архиепископом Якутским и Ленским, и группой его миссионеров, они рассказали о своих миссионерских проектах, которые они делают в разных улусах, где проживают якуты и другие коренные малочисленные народы. Естественно, они стали тщательнее изучать культуру и ментальность этих народов. И они увидели, что само по себе архаическое мышление этих народов совершенно четко укладывается в систему программирования. Им легко даются эти профессии, они в них успешны, конкурентоспособны. У них иерархия миров, которая накладывается… Это очень интересно, и тема для отдельного исследования.
У нас есть институт — Президентский совет по развитию гражданского общества. Он, наверное, единственный, кто на государственном уровне озвучивает эти страхи. И здесь, опять же, возможность для нас по взаимодействию с коллегами. Они как раз в русле «ультра-православных страхов». У них есть очень интересный доклад про цифровизацию. И в частности, там есть истории, на которые мы можем реагировать. Например, дискурс тотальной цифровизации по своим ценностным установкам, пониманию человека, его природы и значения находится в непримиримом противоречии с ценностными основами российской культуры. На что мы можем опираться в диалоге с государством? На сами документы государства: наверняка многие знают, что во второй половине 2022 года издан Указ Президента Об утверждении Основ государственной политики по сохранению и укреплению традиционных российских духовно-нравственных ценностей. Я считаю, все то, о чем мы говорили предыдущие десятилетия, наконец услышали, и хоть что-то заложили в официальный документ, которым мы можем пользоваться. Так вот, там закреплены ценности, перечислены те аргументы, или векторы для нашей аргументации, в том числе, для создания этических подходов к регулированию такой сферы, как создание искусственного интеллекта и применение высоких технологий.
Государство открыто говорит: предлагайте нравственное богатство, которым вы обладаете. Возможно, и благодаря нашей работе в Межсоборном присутствии, мы доросли до того, чтобы выходить на системные контакты с этим Альянсом в сфере искусственного интеллекта, тем более, что в этом выступлении Владимир Владимирович неоднократно этот Альянс называл как основного актора по этой теме. Опираясь на наши наработки, мы можем выходить на контакты с ними.
Благодаря поддержке владыки Климента и владыки Феоктиста мы с рядом церковных и светских ученых создали портал на русском и английском языке «Религия. Этика. Искусственный интеллект». Это, наверное, опять же история про жизнь, он постоянно будет дополняться и обновляться.
Мы пытаемся выстраивать взаимоотношения со СМИ, без них никуда. Мы издавали журнал и бесплатно рассылали его по всем епархиям в течение 7 месяцев, и там довольно глубоко размышляли по теме искусственного интеллекта. Причем не всегда говорили с точки зрения Церкви, а просто знакомили широкую общественность с тем, что происходит в этой сфере.
Мы попытались адаптировать большую статью отца Мефодия Зинковского, и большую статью владыки Феоктиста об этике, которая выходила в ЖМП. Это первый опыт того, как нам передавать и в духовные школы, и тем исследователям, которые где-то с этой темой выступают. Эти мультимедийные материалы есть в открытом доступе на этом портале, можно любому человеку заинтересованному этой темой, брать эти материалы. Чтобы внутри Церкви эта тема тоже не была чужеродной, не казалось, что мы где-то с краю будем стоять, а оно само в мире как-то разрулится. Мое убеждение — не разрулится.

С. Л. ХУДИЕВ,
богослов и публицист:

— Есть такой философ сознания Джон Сёрл. Он сам атеист, материалист, но при этом достаточно глубокий мыслитель. Он объясняет, почему алгоритм не обладает сознанием. У него есть пример знаменитый мысленный — «Китайская комната Сёрля». Он говорит: представьте, что я сижу в комнате, и мне передают текст на китайском и набор инструкций, как я должен перевести этот текст, скажем, на корейский. Я действую как компьютер, перевожу с китайского на корейский. И если мне выданы правильные инструкции, то перевожу успешно, как «Google-переводчик». Хотя, конечно, намного медленнее. При этом я не понимаю ни слова ни на одном, ни на другом языке. Так и компьютер, выполняя работу, напоминающую работу человека, не обладает сознанием, пониманием или субъективным опытом. То есть, мы исходим из того, что переводчик понимает оба языка, прочитал китайский текст, понял, что хотел сказать китайский автор, и пересказал это по-корейски, потому что корейский язык он тоже понимает. У компьютера это понимание отсутствует.
Другой мыслитель, тоже атеист, Томас Нагель, объясняет, почему нельзя свести сознательный субъективный опыт к материальному субстрату. У него есть знаменитая статья 1973-го года «Каково быть летучей мышью?». Летучие мыши ориентируются в пространстве с помощью ультразвуковых эхо-локаторов. Орган восприятия мира, которое у человека отсутствует, человек не может представить себе, каково это — ориентироваться при помощи эхо-локации. Даже если мы тщательно исследуем мозг летучей мыши и поймем, как у нее идет сигнал, какие нейроны возбуждаются, будем с технической стороны все знать детально, мы не поймем каково быть летучей мышью. Потому что в сознании есть неустранимый субъективный элемент, который не может быть сведен к электро-химическим взаимодействиям в нейронах или каким-то взаимодействиям в компьютере.
Таким образом, с философской точки зрения есть основания полагать, что даже если мы имеем дело с алгоритмом, который очень правдоподобно имитирует человека, мы не имеем дело с чем бы то ни было, обладающим сознанием. Другое дело, может быть нравственной проблемой с точки зрения искусственного интеллекта — имитация греха. Например, человек нахамил роботу. Робот не обиделся, он не может обидеться, у него нет сознания и эмоций. Но поведение человека растормаживается. Растормаживается его грубость, которую он может проявить и по отношению к другим людям, это повреждает его душу. Так же, как компьютерные игры с имитацией актов садизма тоже повреждают душу, несмотря на то, что никто реально физически не страдает. Поэтому есть основания полагать, что каким бы сложным алгоритм ни был, можно принять точку зрения руководства Google, что — нет, это не обладает сознанием.


ВЕРА ШАРАПОВА

Источник: журнал «Православное книжное обозрение»



Лицензия Creative Commons 2010 – 2024 Издательский Совет Русской Православной Церкви
Система Orphus Официальный сайт Русской Православной Церкви / Патриархия.ru