Привычка ко лжи?

Сбой программы

Не помню названий фильмов – а таких полно, – где повторяется один и тот же сюжет: человека вычёркивают из электронной базы данных и он превращается в ноль. Ни в магазин сходить, ни на общественном транспорте проехать. Что-то подобное случилось и со мной. Сразу после Нового хода вхожу в автобус, прикладываю карточку к терминалу, и высвечивается: «Ваша банковская карточка заблокирована». Налички в кошельке не было, поэтому вышел из автобуса, дождался другого. Но и там терминал выдал: «Заблокирована». По телефону проверяю счёт в мобильном банке: всё нормально, деньги есть. Но почему-то автобусы перестали их видеть. Стал наводить справки – и куда ни позвоню, отвечает синтезированный голос робота: «Если вам нужно… нажмите цифру…» Наконец нарвался на живого человека, который объяснил, что, по всей видимости, у меня задолженность перед автотранспортным хозяйством, поэтому надо мне зайти в «личный кабинет» и погасить её. Какой ещё «кабинет»?! У меня их не один десяток уже – и на госуслугах, и в электронной почте, и в соцсетях, и на разных сайтах. Захожу на rrtp.ru, регистрируюсь и… (здесь следует непереводимая игра слов с использованием местных идиоматических выражений)! Там во всех подробностях расписан график моих передвижений за несколько месяцев: вплоть до минуты показано, когда и куда я ездил по городу. Я уж и забыл некоторые свои поездки, а электронный Большой брат всё помнит.

Всё фиксирует, запоминает, но при этом глючит, вот что страшно. Непонятно, почему выписал мне задолженность в 50 рублей и при этом не даёт её погасить: «Оплата долга будет произведена в ближайшее возможное время». И это «возможное время» тянется уже два месяца. Сбой программы. Так что до сих пор езжу на автобусах, оплачивая бумажками и мелочью под хмурыми взглядами водителей. А вот если представить, что у нас отменят наличку (такие разговоры уже ведутся), то как мне быть в городе? Пешком из конца в конец добираться? И к кому теперь обращаться? К роботу с синтетическим голосом?

ИИ наступает

Из последних новостей: Федеральная палата адвокатов РФ начала разработку искусственного интеллекта в сфере оказания правовой помощи. То есть звонишь по телефону, делишься своей проблемой, и робот подскажет, как тебе поступать по закону. И ничего фантастического в этом уже нет. Судя по исследованию, проведённому в прошлом году компанией Neuro.net, в нашей стране уже более трети call-центров используют «голосовые решения на базе искусственного интеллекта», остальные планируют внедрить их в ближайшем будущем. При этом половина опрошенных в городах людей не всегда может распознать, с кем говорит – человеком или роботом. Из них более трети заявили, что к «голосовым помощникам» относятся негативно. Но деваться некуда – по прогнозам компании Gartner, уже к концу нынешнего года в России «70 процентов всех коммуникаций в сервисных индустриях с клиентами будут происходить при помощи ИИ».

Искусственный интеллект реально входит в нашу жизнь. Как видим, не все с этим согласны. Чтобы как-то успокоить народ, принимаются определённые меры. Они двоякого рода. Во-первых, демонстрируются попытки ограничить безудержную автоматизацию. Так, ректор Московского государственного технического университета радиотехники, электроники и автоматики предложил Минцифры обязать роботов представляться по телефону, сообщая, что с ними говорит не человек. Также он должен предложить клиенту переключиться на живого сотрудника компании, если тот не захочет с ним говорить. Во-вторых, «цифровики» озаботились имиджем ИИ – мол, надо бы этих роботов сделать более привлекательными.

Ещё в октябре прошлого года АНО «Национальные приоритеты», которая занимается информационным сопровождением нацпроектов, объявила о запуске в России кампании для улучшения восприятия населением искусственного интеллекта. Её цель – придать технологии «эмоциональный характер проводника справедливости для человека». К этому плану подключены различные СМИ – «Аргументы и факты», Forbes, бортовые журналы авиакомпаний и так далее. На телеканале СТС выпущена специальная тематическая программа, подключены и другие каналы, на что, как сообщается, из бюджета федерального проекта «Искусственный интеллект» выделены средства. В целом же на пропаганду ИИ в 2022 году планируется потратить более 106 млн рублей. Главный посыл: «ИИ приносит больше справедливости в жизни людей, обеспечивая равный доступ к новым возможностям».

Вочеловечивание роботов начинается с имени

Признаться, прежде об этой пропагандистской кампании я ничего не знал, и когда в канун Нового года в «Коммерсанте» вышла статья бывшего помощника Президента Суркова о том, что искусственный разум не так уж страшен и даже способен… поверить в Бога, то не придал этому значения.

«Православный робот»

«Вот что я подумал: станет ли когда-нибудь искусственный интеллект православным? Будет ли он когда-нибудь отмечать Рождество?» – так Владислав Сурков начал своё «Послание к процессорам и чипам». Человек он вполне солидный – действительный государственный советник Российской Федерации 1 класса, бывший руководитель аппарата правительства, и вряд ли заподозришь его в легкомысленном чудачестве. Видно, что всё это он пишет всерьёз. И на первый взгляд, рациональное зерно в его размышлениях имеется.

Вкратце идея такова. Любая научная теория начинается с аксиом и постулатов. То есть чтобы что-то доказать на практике, чтобы вообще приступить к анализу каких-то явлений, вначале надо принять на вооружение ряд аксиом, которые ни из чего не выводятся и сами по себе недоказуемы. Например, что волна – это колебательный процесс, а колебание – это повторяющееся изменение, а изменение – это переход от одной ситуации к другой, а ситуация… и так до бесконечности. То есть нужна отправная точка, чтобы что-то осмыслить, и она берётся на веру, без доказательства.

«Таким образом, акт веры предшествует процессу человеческого мышления, – вполне логично утверждает автор. – Религиозность предустановлена в структуре человеческого интеллекта, встроена в него, причём на самом фундаментальном уровне». И далее он переходит к искусственному интеллекту: «Это самообучающаяся машина, то есть машина, которая на первых порах умеет выполнять только самые простые функции, но которая способна при этом к самообучению, к обучению. У кого будет учиться эта машина?» Разумеется, у своего создателя – человека. Из чего следует: «если мы перенесём в машину структуру человеческого интеллекта, мы также вместе с ней перенесём и встроенную в эту структуру религиозность.

И действительно, если машина будет умной, то она будет прежде всего понимать, что она существует.

Она также будет осознавать свою неполноту, то есть то, что является только частью чего-то гораздо большего, чем она сама, и до конца ей не понятного.

Она также будет осознавать свою конечность, что она подвержена износу и разрушению. И возможно, она захочет быть вечной или хотя бы попытаться понять, что такое вечность.

Чего точно не будет понимать машина, какой бы умной она ни была, это зачем она существует, в чём смысл её существования.

И возможно, она начнёт задавать себе те же вопросы, которые привели человека к Богу. И эти вопросы, которые привели человека к Богу, могут привести машину также к Богу.

Таким образом, скорее всего, а на мой взгляд так и неизбежно, “сильный” искусственный интеллект будущего будет религиозным».

Завершил своё «Послание» Сурков допущением, что евангельское «любовь не завидует, любовь не превозносится, не гордится, не бесчинствует, не мыслит зла» будет понятно и в близком будущем «сильному» ИИ.

Поначалу, прочитав это «Послание», порадовался я: а почему бы и нет? Вот создадут у нас супер-суперкомпьютер, тот посчитает, покумекает и выдаст человечеству истину в последней инстанции: «Бог есть». И все люди сразу уверуют, не будет больше атеистов. Понимаю, что это не так. Но вовсе не потому, как это объясняют сами атеисты.

На форумах, где обсуждались рассуждения Суркова, я встретил возражения, которые сводятся к следующему: «Да, любовь не мыслит зла. Но кто сказал, что в человеке нет зла? И если ИИ будет учиться у людей, то научится и злу, которое сидит внутри каждого человека и является его естеством. Учите матчасть, Стэнфордский эксперимент давно уже развеял сомнения на этот счёт. Какая ещё религия?! Эгоизм, расчётливость, жестокость – вот чем будет руководствоваться будущий искусственный сверхразум».

Люди – звери?

Тут надо сказать об этом самом Стэнфордском тюремном эксперименте. В 1971 году американский психолог Филипп Зимбардо в подвале Стэнфордского университета устроил условную тюрьму, куда пригласил студентов в качестве заключённых и надзирателей. Студенты охотно включились в ролевую игру, и уже через несколько дней, как утверждает психолог, «надзиратели» превратились в жестоких тиранов, измывающихся над беззащитными людьми, а «заключённые» – в подавленных безвольных жертв.

Этот эксперимент стал известен всему миру и для многих перевернул представления о природе человека. Люди увидели своё «звериное нутро». На эту тему стали писать, снимать фильмы. В 1999 году один немецкий писатель выпустил повесть об эксперименте «Чёрный ящик», которая вскорости, в 2001-м, была положена в основу немецкого фильма «Эксперимент». Затем в 2010-м по нему был снят ремейк американцами, в 2015-м вышел ещё один фильм.

«Стэнфордский тюремный эксперимент». Натурные съёмки

Ставились и спектакли на эту тему, где актёры показывали беспричинную жестокость добровольных надзирателей. Даже у нас в России одна из рок-групп записала песню «Эксперимент». Правда, с некоторым запозданием, в 2020-м, когда этот самый «эксперимент» был уже признан мистификацией. Но откуда это знать нашим музыкантам, ведь о мошенничестве американского психолога широко не объявлялось.

Реклама фильма «Стэнфордский тюремный эксперимент. Основано на реальных событиях»

Началось всё с того, что французский социолог Тибо Ле Тексье, большой поклонник Зимбардо и его эксперимента, взялся снять о знаменитом психологе документальный фильм. Первым делом он обратился в архив Стэнфордского университета, где хранятся видео- и аудиозаписи эксперимента, и с изумлением обнаружил, что в них зафиксировано вовсе не то, о чём вещал психолог. Эксперимент оказался надувательством. И масштаб обмана просто чудовищен. Во-первых, выяснилось, что эксперимент был окончен досрочно, поскольку «надзиратели» вели себя не так, как желал того Зимбардо. Никто не хотел быть садистом. Только один из подопытных проявил садистские наклонности, а большинство отнеслись к «заключённым» по-человечески и даже помогали им. Во-вторых, не оправдали себя и «заключённые» – никто не превратился в забитое существо, напротив, постоянно бунтовали. По записям видно, что психолог пытался направить подопытных в «правильное русло», инструктировал «надзирателей», что они должны прессовать людей в камерах, но те инструкции саботировали, не желая наносить вред ближним. При этом среди «надзирателей» были не только интеллигентные студенты, но и люди со стороны, с криминальным прошлым – и даже они не хотели превращаться в зверей.

Свой документальный фильм Тибо Ле Тексье так и не снял, но написал книгу «История одной лжи». После её выхода на французском языке издатели не спешили эту «бомбу» переводить на английский, поэтому в мире о ней мало знают. Куда известнее книга самого Филиппа Зимбардо «Эффект Люцифера», в которой на основе сфальсифицированного научного эксперимента опровергается тот факт, что каждая человеческая душа – христианка, что добро первичнее зла.

Благими намерениями…

Так что автор «Послания к процессорам и чипам» не погрешил против истины – в том, чему ИИ может научиться у человека. Но научиться – не значит быть. Машина может подражать, демонстрировать любовь, религиозность, но… верить и любить? У неё нет души, чем же она будет любить?

Владислав Сурков уточняет: «Я, разумеется, имею в виду не тот искусственный интеллект, с которым мы имеем дело сегодня, – этот услужливый идиот, который отзывается на кличку “Алиса” и до сих пор не может толком научиться водить автомобиль. Я, конечно, говорю об искусственном интеллекте будущего, который учёные и инженеры называют “сильный” искусственный интеллект и который сможет не только следовать протоколу, но ещё и мыслить, и воображать».

Так изображают в Яндексе электронную собеседницу Алису

И что же, воображения – даже если ИИ заполучит его – достаточно для религиозности? Религия – это не идея, не представление ума, а непосредственное общение с Богом. Мне кажется, Владислав Юрьевич это прекрасно понимает, а своё «Послание» написал для «Коммерсанта» если не для «прикола», то для какой-то иной цели, о которой прямо не говорит. Вот и возникло у меня подозрение: а не попросили ли этого человека с именем включиться в кампанию по «очеловечиванию» ИИ, чтобы легче было внедрить его в нашу жизнь? Сама по себе задачка «прикольная» – и почему бы здесь не блеснуть своей способностью парадоксально мыслить, идеологизируя самые разные вещи?

Ведь даже учёные не чужды мистификаций, как мы убедились на примере «Стэнфордского эксперимента». Ведь ради «благого дела»! Как выяснилось, психолог Зимбардо не со зла пошёл на мошенничество, а из политического расчёта – чтобы ужаснуть американское общество и заставить власть имущих провести тюремную реформу, облегчить положение заключённых, к которым, по его мнению, в американских тюрьмах относятся негуманно. Неважно, что сам психолог ни разу тюрьмы не посещал и не видел, как там обстоят дела, но вот есть у него такая идея. Как бы и добрая идея-то. Но в итоге она принесла в мир чудовищное зло – «Стэнфордский эксперимент» стал частью культуры и вбитым в головы мемом: «Все люди звери». Почему так случилось? Потому что обман всегда приводит ко злу, но не к добру.

А насчёт «Алисы» Сурков верно подметил – пока что она ещё «идиотка». Но с мелодичным женским голосом, создающим иллюзию человечности. Эта иллюзия, этот обман будут только укрепляться, а человечность – нет. И уже в ближайшее время нам предстоит погрузиться в химерический мир псевдочеловеческого общения с роботами, к которому мы быстро привыкнем. И это, конечно, зеркально отразится на обычном общении между людьми, потому что ничто бесследно не проходит. Перед глазами уже есть пример так называемой игромании, когда людям комфортней пребывать в виртуальной реальности компьютерных игр – там проще жить, там нет никаких обязательств. И с роботами общаться будет проще, чем с живыми людьми. И с людьми как с роботами – тоже. Появятся новые интонации, новые безличные коммуникации между живыми душами. Мир станет расчеловечиваться.

Как с этим бороться? Запретить «голосовых помощников» вряд ли получится. Но взирать на это равнодушно тоже не дело. Выше я упомянул о направленном в Минкомсвязи предложении обязать электронных «помощников» сообщать клиентам, что с ними говорит не человек, а робот. Вроде бы толковое предложение. Но почему бы не сделать так, чтобы робот сразу узнавался по голосу? Пусть он будет не совсем человеческим, с механическим выговором, как показывали роботов в старых фильмах. Ведь это очень просто! И не будет никаких иллюзий, что говоришь с человеком. Но нет, кровь из носу добиваются полного человекоподобия – иллюзии, обмана. Ради чего? Хочется думать, что в этом нет злого умысла, а всего лишь глупость и ложные благие намерения.

 

← Предыдущая публикация     Следующая публикация →
Оглавление выпуска

Добавить комментарий