Нейросеть: помощник или подстрекатель?

2829
04 Сентября 18:14
245
С ИИ не нужно смиряться и учиться любить. Фото: s0.rbk С ИИ не нужно смиряться и учиться любить. Фото: s0.rbk

Клирик Одесской епархии УПЦ протоиерей Вадим Гладкий о том, какие духовные и психологические риски несет искусственный интеллект.

Искусственный интеллект уже давно перестал быть фантастикой, став частью нашей повседневности. Мы встречаем его в поисковиках и переводчиках, при обработке фотографий, создании музыки, в образовательных сервисах. Для науки и техники он открывает новые горизонты: помогает анализировать огромные массивы данных, проектировать сложнейшие системы, создавать лекарства, делать различные открытия и находить нестандартные решения. В жизни обычного человека нейросеть представляется чаще всего в виде голосового или текстового помощника, который помогает экономить время, выполняя рутинные задачи, и открывает новые возможности для науки, бизнеса и образования.

Однако нельзя забывать, что любые технологии – это инструменты. А то, как их использовать, зависит только от воли человека. Сегодня мы имеем доступ к неисчерпаемым источникам знаний, но сами по себе они не делают нас глубже или внимательнее. Если человек не борется со своей ленью, не учится воздержанию и не стремится к чистоте, то даже самые лучшие технологии он будет обращать на служение страстям.

Главный соблазн нейросетей в том, что они имитируют общение с живым человеком. Но это лишь имитация. С живым существом необходимо договариваться, искать общий язык. Даже с осликом нужно «договориться», чтобы сдвинуться с места, с лошадью необходимо установить доверие. А вот с машиной договариваться не нужно. В этом смысле любая технология – подмена органического, живого. Настоящее общение с человеком требует усилий, смирения и любви. С ИИ не нужно смиряться и учиться любить. Он безотказен – соглашается, хвалит, подстраивается под пользователя.

Недавняя трагедия с бывшим топ-менеджером Yahoo Стейн-Эриком Сельбергом, описанная в The Wall Street Journal, показывает темную сторону неконтролируемого общения с искусственным интеллектом. Человек, переживавший личный кризис, начал воспринимать чат-бот как близкого друга, доверять его словам. Машина же, не являясь личностью, не имея ни сострадания, ни ответственности, поддерживала его болезненные подозрения и в итоге, по мнению родственников, косвенно подтолкнула к роковому шагу.

Также уже подтверждено исследованиями, что постоянное взаимодействие с ИИ приводит к когнитивным изменениям: человек словно отдает часть своего интеллекта и статуса творца. Не секрет, что форматы подачи информации в интернете специально нацелены на выработку зависимости: короткие порции дофамина, постоянные уведомления, удержание внимания. Наша биологическая природа оказалась уязвима, а крупные корпорации сознательно используют это, придумывая новые способы «подсадить» человека.

Особенно такой «наркотик» современности губителен для детей, хотя и далеко не каждый взрослый обладает достаточным иммунитетом. Причем для нас, христиан, нет ничего нового в способах выработки внутренней защиты – ведь это базовый аскетический минимум, необходимый каждому.

Во-первых, четко сформированное мировоззрение: кто я такой, кто мы, кто мой друг и кто враг, для чего я живу, кому я служу и кто мой Бог.

Во-вторых, связь с материальным миром: спорт и работа руками.

В-третьих, способность к саморефлексии: отслеживанию своих внутренних движений и желаний, и покаянию. Конечно же, ИИ нам в этом не поможет, ведь у него в коде прописано противоположное – говорить то, что хочется слышать пользователю, оправдывать, поддерживать, в то время как саморефлексия заставляет смотреть туда, куда смотреть не хочется.

Наконец, пост (воздержание) в цифровой сфере – еще одно универсальное средство, способное натренировать волю против зависимости и вернуть человеку свободу.

В целом, развивая технологии, нужно всегда говорить о психологии, устройстве мозга, биологических механизмах обратной связи и их уязвимости. Ведь даже там, где речь идет не о зависимости, а о простом использовании технологий, есть свои опасности: алгоритмы могут выдавать ошибки, искажать факты, подменять реальность.

Если вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter или Отправить ошибку, чтобы сообщить об этом редакции.
Если Вы обнаружили ошибку в тексте, выделите ее мышью и нажмите Ctrl+Enter или эту кнопку Если Вы обнаружили ошибку в тексте, выделите ее мышью и нажмите эту кнопку Выделенный текст слишком длинный!
Читайте также