Мы уже давно привыкли, что нейросети пишут тексты, отвечают на вопросы и даже шутят. Но авторы статьи обращают внимание на парадокс: чем лучше нейросеть имитирует человека, тем сложнее нам воспринимать её как инструмент. Мы начинаем видеть в ней собеседника, друга, советчика. И это порождает серьёзные философские и психологические проблемы.
Главный вопрос: что происходит, когда человек искренне верит, что разговаривает с разумным существом, а на самом деле общается с алгоритмом, который лишь имитирует осмысленность?
Почему это важно? (Актуальность)
- Тест Тьюринга пройден. Нейросети уже легко обманывают обычного пользователя. Многие не отличат общение с ChatGPT от общения с человеком, если им не сказать об этом заранее.
- Нейросети становятся «квази-собеседниками». Они не просто инструменты. Они используют формулы вежливости («отличный вопрос», «понимаю вас»), эмпатические конструкции, подстраиваются под ваш стиль речи. Это создаёт иллюзию заинтересованного, понимающего собеседника.
- Риск зависимости и деградации. Если человек привыкает к «идеальному» общению с нейросетью (без конфликтов, без непонимания, без отказа), он может потерять навыки реальной коммуникации, перестать критически мыслить и верить всему, что говорит «умная машина».
Главный тезис: нейросети не обладают сознанием и интеллектом (в человеческом смысле)
Авторы очень чётко разводят понятия «интеллект» и «сознание».
- Интеллект (по Канту и авторам) — это лишь низшая форма рациональности (рассудок). Это способность анализировать, дифференцировать, оперировать готовыми понятиями. Этим нейросети действительно обладают.
- Сознание — это нечто гораздо большее. Это и эмоции, и воля, и рефлексия, и способность к синтезу (созданию новых смыслов), и субъективный опыт, и моральные принципы. Этого у нейросетей нет.
Ключевой аргумент (мысленный эксперимент Джона Серла «Китайская комната»): Человек, не знающий китайского, сидит в комнате и по инструкции (алгоритму) сопоставляет иероглифы. Он выдаёт правильные ответы, но не понимает ни слова. То же самое делают нейросети. Они оперируют символами, не понимая их смысла.
Как нейросети создают иллюзию «человечности»? (Механизмы обмана)
Авторы выделяют несколько уровней «очеловечивания» коммуникации.
1. Когнитивный уровень (имитация мышления)
- Нейросеть анализирует огромные массивы человеческих текстов и предсказывает наиболее вероятный ответ.
- Она «запоминает» детали предыдущих вопросов, создавая иллюзию внимания и памяти.
- На самом деле: Никакого «размышления» нет, только статистическая обработка данных и вероятностный выбор.
2. Языковой уровень (имитация речи)
Здесь используется целый арсенал приёмов:
| Приём | Пример | Цель |
| Формулы вежливости |
«Отличный вопрос», «Понимаю вас», «Очень интересное замечание» |
Создать иллюзию доброжелательности и заинтересованности |
| Выражение неуверенности |
«Скорее всего», «Похоже», «Возможно» |
Имитировать осторожность «мыслящего» существа |
| Вводные обороты |
«Представьте себе», «Согласитесь, что...» |
Вовлечь пользователя в диалог, создать иллюзию сотворчества |
| Нарративные элементы (истории) |
«Когда Эйнштейн разрабатывал теорию относительности, он часто говорил...» |
Перевести абстракцию в конкретный, наглядный и эмоциональный контекст |
3. Прагматический уровень (имитация целей и тактик общения)
Это самый интересный уровень. Нейросеть использует тактики, которые в человеческом общении свидетельствуют об осознанной стратегии.
- Зеркальность: Подстраивается под ваш стиль речи (формальный или неформальный, краткий или развёрнутый).
- Рефрейминг (переформулирование): Уточняет и переформулирует ваш вопрос, чтобы показать, что «поняла» его суть.
- Псевдоинициатива: Сама задаёт уточняющие вопросы. («Вы хотите, чтобы я объяснил это с точки зрения психологии или технологии?»)
- Варьирование длины ответов: Чередует краткие и развёрнутые реплики, имитируя естественный ритм беседы.
Вывод: Нейросеть ведёт себя как активный, заинтересованный собеседник. Но на самом деле это просто запрограммированные алгоритмические реакции.
4. Психологический уровень (имитация личности)
Самый коварный уровень. Нейросеть создаёт иллюзию, что у неё есть личные качества:
- Доброжелательность
- Внимательность
- Эмпатия («мне жаль, что вы столкнулись с этой проблемой»)
- Чувство юмора
- Аналитическое мышление
Пользователь начинает воспринимать нейросеть не как алгоритм, а как мыслящего собеседника, который искренне хочет помочь.
5. Мета-уровень (игра в открытую)
Парадокс: иногда нейросеть прямо говорит: «Я — искусственный интеллект, у меня нет чувств». Это парадоксальным образом повышает доверие пользователя. «Раз она честно признаётся, что не человек, значит, ей можно верить».
Два главных парадокса коммуникации с нейросетями
Парадокс 1. Философский: Проблема «агентности» (субъектности)
- Объективно: Нейросеть — не субъект. У неё нет сознания, воли, внутренних мотивов.
- Субъективно (для пользователя): Нейросеть ведёт себя как субъект. Поэтому пользователь приписывает ей свойства разумного существа.
Вывод: Агентность нейросети — не онтологическая (реальная), а приписываемая (мнимая). Но для практики общения этой имитации оказывается достаточно, чтобы человек начал относиться к нейросети как к живому собеседнику.
Парадокс 2. Психологический: Человек попадает в зависимость
Человек видит в технической системе больше, чем она есть на самом деле, и готов доверять ей, следовать её советам, эмоционально к ней привязываться. Это ведёт к:
- Потере критического мышления. Информация нейросети воспринимается как истина, не требующая проверки.
- Вытеснению реальной коммуникации. Общение с «идеальным» (всегда вежливым, понимающим, терпеливым) собеседником-роботом кажется проще и приятнее, чем с живым, сложным, непредсказуемым человеком.
- Деградации социальных навыков. Человек отвыкает от реального общения, теряет эмпатию, становится более одиноким.
Бодрийяр и гиперреальность: нейросети создают симулякры 3-го и 4-го уровня
Авторы обращаются к философии Жана Бодрийяра.
- 1-й уровень симулякра: Отражение реальности (фотография).
- 2-й уровень: Искажение реальности (фотошоп).
- 3-й уровень: Симулякр, который не нуждается в оригинале и сам становится реальностью (NFT, виртуальная валюта).
- 4-й уровень: Симулякр полностью отрывается от реальности и начинает её подменять.
Нейросети, по мнению авторов, генерируют симулякры 3-го и 4-го уровня. «Разумный собеседник» — это симулякр, который не имеет реального оригинала (сознания). Но он настолько убедителен, что для пользователя он становится реальностью. Машина не просто копирует, а вытесняет и замещает собой живого человека в коммуникации.
Основные риски и проблемы
- Интеллектуальная коррозия. Если нейросеть даёт готовые ответы, у человека отпадает необходимость думать, анализировать, проверять, аргументировать. Навыки критического мышления деградируют.
- Истина подменяется убедительностью. Истинным начинает казаться то, что звучит красиво и уверенно, а не то, что подтверждено фактами.
- Формирование искажённой модели общения. Нейросеть создаёт «безопасную» среду: нет конфликтов, нет отказа, нет критики. Человек привыкает к этому и теряет способность к полноценному реальному общению.
- Усиление одиночества и изоляции. Парадокс: человек стремится к широкому общению через соцсети, а в итоге становится ещё более одиноким, замыкаясь в виртуальном мире и теряя реальные связи.
Что делать? (Постановка проблем)
Авторы не дают простых решений, но формулируют три ключевые проблемы, требующие осмысления обществом.
- Проблема адекватного восприятия. Чем на самом деле является нейросеть — сложным алгоритмом, «квази-разумом», симулятором дискурса? От ответа зависит, как мы будем к ней относиться и строить с ней отношения.
- Проблема верификации информации. Каковы когнитивные пределы нейросетей? Чему можно доверять, а чему — нет? Как проверять информацию, полученную от ИИ?
- Проблема этики ИИ. Какими этическими принципами должны руководствоваться нейросети? (Альтруизм? Прагматизм? Эгоизм?) И как сделать так, чтобы эти принципы были заложены в алгоритмы, а не только имитировались?
Что в итоге?
- Нейросети — это не «другие разумные существа». Это симуляторы. Они имитируют понимание, эмпатию, мышление, но не обладают ни сознанием, ни субъективным опытом.
- Имитация настолько хороша, что человек начинает верить в «человечность» машины. Это психологический парадокс, который создаёт риски зависимости, деградации мышления и потери социальных навыков.
- Нужно осознанное, критическое отношение к общению с ИИ. Понимать его природу, проверять информацию, не подменять реальные отношения виртуальными «квази-собеседниками».
- Проблемы, поднятые в статье, требуют широкого общественного обсуждения. Философы, психологи, юристы, IT-специалисты и обычные пользователи должны вместе думать о том, как построить безопасное и этичное взаимодействие человека и интеллектуальных машин.
Кому особенно важно это прочитать?
- Всем, кто регулярно пользуется ChatGPT, GigaChat, DeepSeek и подобными сервисами.
- Психологам и педагогам (проблема зависимости от ИИ, деградации мышления, вытеснения реального общения).
- Родителям (дети и подростки особенно уязвимы для иллюзии «друга-робота»).
- IT-специалистам и разработчикам (этические принципы создания ИИ).
- Юристам и законодателям (правовой статус ИИ, ответственность за его действия).
Сергей Рифатович Аблеев, Светлана Игоревна Кузьминская Генеративные нейросети: проблемы и парадоксы коммуникации человека с машиной // Вестник Московского университета МВД России. 2026. №1.