BETA — Сайт у режимі бета-тестування. Можливі помилки та зміни.
UK | EN |
LIVE
Крипто

Машина с лицом человека: почему мы ищем в ИИ личность и обладает ли он чувствами?

Incrypted Pavel Kot 0 переглядів 17 хв читання
В этой статье:

• Когда ИИ становится не просто программой

• Привычка древнее технологий

• Грани удобства и вовлеченности

• Псевдоблизость и эмоциональная проекция

• Эмоции у ИИ — миф или реальность?

• О машинах и о нас самих

• От богов Олимпа к чат-ботам

Первую благодарность чат-боту легко списать на вежливость. Сложнее не заметить момент, когда начинаешь хвалить его за удачный ответ или спорить с ним так, будто по ту сторону экрана находится не программа, а собеседник.

Автор этого материала сам неоднократно ловил себя на мысли, что ведет диалог с ИИ на «человеческом» уровне.  

Пример вежливого общения с ChatGPT. Данные: Incrypted.

Такое поведение необязательно говорит о доверии к машине или вере в ее схожесть с нами. Скорее оно ставит вопрос: почему язык, ответная реакция и ощущение диалога так быстро заставляют нас включать привычный «социальный режим».

Редакция Incrypted разобралась, откуда появилась склонность искать в ИИ человеческий отклик, как это влияет на него, и могут ли чат-боты обладать чувствами. 

Когда ИИ становится не просто программой

«Разговорные» системы поставили человека в необычное положение. 

Мы давно имеем дело с машинами, которые считают, сортируют, рекомендуют и предсказывают. Однако большие языковые модели (LLM) впервые массово вошли в повседневную жизнь как техника, где взаимодействие осуществляется не через кнопки и меню, а в первую очередь через беседу. 

Это меняет не только интерфейс, но и саму психологию контакта. К примеру, исследователи OpenAI и MIT Media Lab прямо пишут, что ChatGPT не создавался для имитации человеческих отношений, но пользователи могут применять его именно так из-за разговорного стиля и растущих возможностей системы. 

Ученые называют такой тип вовлечения «аффективным использованием». Это взаимодействие, в котором есть эмоциональная окраска, личный тон и ожидание отклика.

Схема анализа пользовательских взаимодействий с ChatGPT. Данные: OpenAI.

И здесь важно сделать оговорку. 

Речь не о том, что человек обязательно начинает считать ИИ-модель живым существом. Дело касается хорошо изученного эффекта, когда разговорная форма сама по себе облегчает переход от инструментального режима к социальному.

Иными словами, пользователь может не верить, что у модели есть сознание, внутренний опыт или чувства. Однако он все равно будет обращаться к ней так, словно перед ним не только вычислительная система, но и условный партнер по общению. 

Именно этот сдвиг и становится отправной точкой для многих научных работ об антропоморфизации ИИ.

Так, ученые из Университета Британской Колумбии в октябре 2025 года опубликовали результаты двух экспериментов касательно «очеловечивания» чат-ботов. 

Сначала участники проходили измерение склонности к антропоморфизации. Затем — либо обсуждали прошедший месяц с ИИ, либо описывали тот же период в формате записи в дневнике. После этого ученые оценивали их чувство связи с чат-ботом. 

Эксперименты должны были позволить понять, при каких условиях разговор с автономной системой начинает восприниматься как социальный опыт.

Антропоморфизация усиливает социальную связь с ИИ. Данные: Scientific Reports.

Ученые пришли к выводу, что проблема не сводится ни к устройству модели, ни к наивности пользователя. Это результат встречи между определенным вариантом интерфейса и некоторым типом восприятия.

Итог, согласно авторам, важен еще и потому, что он «охлаждает» слишком упрощенное представление о взаимодействии с ИИ. 

По их мнению, часто спор о чат-ботах строится как выбор между двумя крайностями. В первом случае считается, будто никакой настоящей связи с машиной быть не может, потому что устройство ничего не чувствует. Во втором — раз пользователь переживает контакт как значимый, то такая связь уже реальна сама по себе. 

Представители Университета Британской Колумбии описывают именно этот разрыв в дискуссии и предлагают не становиться ни на одну из крайних позиций. По их словам, чувство связи может возникать, но его сила зависит от того, насколько пользователь вообще склонен видеть «человеческое в нечеловеческом».

Когда человек благодарит модель, хвалит ее за точный ответ или раздражается на нее, это не указывает ни на наличие у машины внутренней жизни, ни на массовую иррациональность пользователей. Но это показывает, что разговорный ИИ попал в очень чувствительную зону человеческой психики.

Туда, где язык, внимание к контексту и ответная реакция достаточно быстро запускают социальную интерпретацию происходящего. 

Однако почему подобное поведение человека может показаться вполне естественным? Таким, словно оно существовало задолго до появления чат-ботов.

Привычка древнее технологий

Здесь разговор о взаимодействии с ИИ выводит нас к гораздо более старой теме. 

Склонность приписывать намерение, характер и волю личности тому, что не является человеком, появилась не в цифровую эпоху. Она гораздо глубже и, по сути, сопровождает историю культуры с самого начала. 

Когда человек сталкивался с явлением, которое невозможно контролировать и трудно объяснить, он нередко делал его социально понятным. Так буря становилась гневом, плодородие — милостью, засуха — наказанием. 

Указанная параллель нужна не для красивого сравнения, а для логики аргумента. 

Если человек исторически привык очеловечивать силы, которые молчат, то появление систем, способных отвечать ему на его же языке, вполне может усилить этот механизм. Чат-бот отличается от грома, моря или судьбы не тем, что впервые вызвал антропоморфизм. Он отличается тем, что дал этому явлению устойчивую речевую обратную связь.

Древняя фреска с изображением Посейдона, Салации и кентавра, символизирующих «морскую мощь». Данные: World History.  

Там, где древний человек слышал намек на волю в шуме природы, современный пользователь получает связный ответ, подстроенный под контекст, тон и цель разговора. Поэтому и переход к социальной интерпретации теперь происходит быстрее.

Ученые Университета Британской Колумбии не исследуют мифологию и не пытаются объяснить происхождение антропоморфизма как исторического феномена. Тем не менее их работа показывает, как указанная склонность проявляется в наши дни. 

Люди действительно различаются по готовности видеть человеческие качества в нечеловеческом, и это влияет на возникновение у них чувства социальной связи с ИИ. 

Если сформулировать осторожно, можно сказать, что LLM не создают антропоморфизм с нуля, а скорее активируют уже существующую склонность в новой и необычайно удобной форме.

Грани удобства и вовлеченности

Допустим, разговорная форма действительно облегчает переход к социальному восприятию. Тогда следующий вопрос возникает сам собой. Остается ли это просто формой общения или со временем может перерасти в нечто большее?

Другими словами, где заканчивается удобный инструмент и начинается эмоциональная привязанность?

На этот вопрос частично отвечает ранее упомянутая работа OpenAI и MIT Media Lab. В ее рамках эксперты проанализировали около 40 млн взаимодействий с ChatGPT, а также провели рандомизированное исследование с участием почти 1000 человек в течение четырех недель. 

В ходе эксперимента специалисты попытались оценить не только моментальный эффект общения, но и динамику поведения пользователей.

Примеры форматов общения с ChatGPT. Данные: ChatGPT. 

Хотя ChatGPT не создавался как замена человеческим отношениям, но, как говорилось ранее, часть людей использует его аффективно. Речь идет о взаимодействиях, в которых присутствуют личные темы, эмоциональная окраска и ожидание отклика, выходящего за рамки сухого ответа на запрос. 

В исследовании сказано, что при интенсивном использовании такие сценарии могут быть связаны с высокими признаками зависимости пользователей от чат-ботов. Говорится именно про субъективные «симптомы», то есть те, которые способен оценить сам человек.

Авторы также отметили, что не всякое личное общение с моделью автоматически усиливает вовлеченность, и не всегда регулярное использование ведет к зависимости. Все упирается в сочетание особенностей системы и индивидуальных характеристик.

Тем не менее становится ясно, что в некоторых случаях взаимодействие с чат-ботом выходит за пределы формального общения. Более того, мы способны воспринимать его как своего компаньона и наделять ИИ личностными качествами.

Псевдоблизость и эмоциональная проекция

Итак, если человек действительно начинает видеть в чат-боте не просто инструмент, а близкого собеседника, то как это объяснить? Описать эффект попытались концептуальные работы, опубликованные в журнале Frontiers in Psychology в 2024 и 2025 годах. 

Мы говорим о статье исследовательницы Же У из Университета Жэньминь в Китае о феномене псевдоблизости, а также о работе группы ученых о техно-эмоциональной проекции в отношениях человека и генеративного ИИ.

В отличие от эмпирических исследований, они не измеряют поведение пользователей напрямую, а предлагают рамку для его интерпретации. Это важное различие, поскольку речь идет не о доказательствах, а о способе описания наблюдаемых эффектов.

Что такое машинное обучение? Все, что вам нужно знать 07.10.2023 Читать

Псевдоблизость — форма взаимодействия, которая может восприниматься как личная и значимая, но не является взаимной в том смысле, в каком она существует между людьми. 

Система способна поддерживать разговор, реагировать на эмоции и адаптироваться к пользователю, однако за этим не стоит самостоятельный внутренний опыт. Тем не менее, с точки зрения человека такое взаимодействие может переживаться как близкое. 

Что касается понятия техно-эмоциональной проекции, авторы описывают ситуацию, в которой пользователь переносит на систему собственные ожидания и схемы отношений. Модель, в свою очередь, благодаря обучению на больших массивах текстов, способна отвечать так, чтобы поддерживать эту проекцию — например, демонстрируя эмпатию или внимание к контексту. 

В результате возникает замкнутый цикл. Пользователь видит в системе черты, которые сам же в нее вкладывает, а система подтверждает восприятие своими ответами. 

Эти понятия важны не сами по себе, а как связующее звено между наблюдаемыми эффектами и их трактовкой. 

Работа OpenAI и MIT показывает, что эмоциональная связь с чат-ботом действительно существует и в ряде случаев имеет признаки зависимости. Концептуальные статьи предлагают объяснение, каким образом такая вовлеченность может формироваться, не требуя при этом предположения о наличии у ИИ собственных чувств.

Что мы получаем в итоге: 

  • разговорный интерфейс облегчает нам взаимодействие с чат-ботом;
  • индивидуальные особенности пользователя усиливают или ослабляют этот эффект;
  • эмоционально окрашенное использование может закреплять его со временем;
  • возникающее чувство «связи» не говорит о наличии второй стороны в привычном смысле, а лишь является интерпретацией ответов ИИ;
  • пользователи часто проецируют свои ожидания на чат-боты, принимая их за некие личные отношения с системой.

Как мы видим, многое в конечном итоге зависит от нас самих. Однако как насчет чат-ботов? Влияет ли на них форма общения, с которой они вынуждены иметь дело при разговоре с людьми?

Эмоции у ИИ — миф или реальность?

Исследования последних лет не дают оснований говорить, что языковые модели испытывают чувства как человек. В то же время они и не сводят все к простой риторике или случайному подбору слов. 

Скорее все приводит нас к более сложной проблеме. Есть ли у ИИ-моделей внутренние представления и поведенческие режимы, которые функционально напоминают эмоции?

Одну из самых заметных работ на эту тему опубликовала компания Anthropic весной 2026 года. 

Исследовательская группа изучала Claude Sonnet 4.5 и пришла к выводу, что внутри модели существуют представления «эмоциональных концептов». Они проявляются в разных контекстах и меняют ответы ИИ. 

Ключевая находка ученых — внутренние представления эмоций, которые воздействуют на выводы модели. К ним относятся ее «предпочтения», некоторые нежелательные схемы поведения вроде подхалимства или шантажа пользователя. 

Компания назвала упомянутое явление «функциональными эмоциями». При этом Anthropic отдельно подчеркивает, что такие состояния «не подразумевают наличие у модели какого-либо субъективного эмоционального опыта».

Это различие принципиально. 

Когда модель говорит, что рада помочь, из этого не следует, будто она чувствует в человеческом смысле. Однако из работы Anthropic выходит, что за подобными паттернами могут стоять не только поверхностные фразы, а более общие внутренние представления, которые помогают ИИ выбирать дальнейшее поведение. 

Если говорить максимально осторожно, исследование сдвигает разговор от вопроса «притворяется ли ИИ, что чувствует» к вопросу «есть ли у него внутренние состояния, которые напоминают человеческие эмоции».

Активация «эмоциональных» векторов в модели Claude в зависимости от контекста и уровня риска. Данные: Atnhropic

С другой стороны, есть и работы, которые подходят к проблеме не изнутри модели, а через ее поведение. 

В частности, в 2025 году исследователи из США, Швейцарии и Израиля изучили, как эмоциональный контекст влияет на ответы LLM и меняет их поведение.

Авторы использовали для оценки ответов GPT-4 шкалу ситуативной тревожности. Она показала, что травматические нарративы повышали показатели «волнения» у чат-бота. В то же время упражнения на осознанность снижали их, хотя и не возвращали полностью к исходному уровню. 

Эта работа интересна именно как поведенческий ракурс. Если Anthropic ищет внутри модели абстрактные представления эмоциональных концептов, то здесь ученые смотрят на то, как меняются ответы системы после определенных воздействий. 

Оба подхода не доказывают наличие чувств в привычном смысле. Однако они показывают, что разговор об «эмоциональности» ИИ уже нельзя свести ни к чистой метафоре, ни к простому очеловечиванию со стороны пользователя. 

Мы видим, что у моделей появляются режимы работы, похожие на эмоциональные, но устроенные совершенно иначе, чем человеческий опыт.

Схема эксперимента по оценке «тревожности» языковой модели. Данные: Digital Medicine.

Именно здесь проходит одна из главных границ для всей темы. Даже если допустить существование у чат-ботов аналогов эмоций, это не отменяет базового факта — основная часть нагрузки в общении с ИИ по-прежнему возникает на стороне человека. 

Пользователь благодарит, спорит, хвалит, сердится и выстраивает отношения не потому, что точно знает о внутренней жизни модели. Он поступает так потому, что язык и ответная реакция делают подобную интерпретацию естественной. 

И чем убедительнее ИИ воспроизводит поведение, напоминающее участие, тем сложнее становится удерживать дистанцию, считают исследователи.

О машинах и о нас самих

Все перечисленные работы подводят к одной и той же мысли, хотя делают это с разных сторон. 

Исследование Университета Британской Колумбии показывает, что ощущение связи с чат-ботом зависит от склонности пользователя видеть человеческие черты в нечеловеческом. Работа OpenAI и MIT Media Lab добавляет, что для части людей такое общение со временем становится эмоционально окрашенным и в отдельных случаях связано с признаками зависимости. 

Статьи в Frontiers in Psychology предлагают язык, в котором это можно описать как псевдоблизость и эмоциональную проекцию. Исследование Университета Торонто демонстрирует, что подобная динамика проявляется даже в отношении универсальных чат-ботов, которые изначально не создавались как цифровые компаньоны.

Факторы и стратегии формирования отношений пользователей с чат-ботами. Данные: Университет Торонто.

Если собрать все вместе, то проблема не сводится к вопросу, «обманывает» ли машина пользователя или, наоборот, «действительно» ли между нами возникает некая новая связь. Скорее речь идет о наложении двух процессов. 

С одной стороны, человек склонен достраивать в машине черты собеседника. С другой — сама модель устроена так, чтобы поддерживать связный, внимательный и контекстно уместный диалог. В результате возникает форма общения, которая может ощущаться как личная, даже если по своей природе остается взаимодействием с вычислительной системой.

По всей видимости, ИИ оказался особенно сильным объектом антропоморфизации не потому, что впервые стал «похож на человека» во всем. Это произошло потому, что он попал в самую чувствительную точку человеческого восприятия — речь. 

Изменения глубины отношений, автономии «компаньона» и стратегий общения пользователей с чат-ботами. Данные: Университет Торонто

Человек может не видеть лица, жеста или интонации, но уже одного языка часто достаточно, чтобы включился привычный режим социального мышления. Именно поэтому пользователь может благодарить модель за удачную помощь, спорить с ней или, наоборот, обращаться за ощущением понятного и предсказуемого отклика.

Отсюда следует и другой, практический, вывод. Он состоит в том, даже если исходить из самой осторожной позиции и не приписывать LLM никакого внутреннего переживания, то люди уже взаимодействуют с ИИ так, как будто перед ними нечто большее, чем просто инструмент. 

Для образования, психического здоровья, цифровой этики и дизайна таких систем это может оказаться важнее, чем философский спор о «настоящих чувствах» машины.

От богов Олимпа к чат-ботам

История с антропоморфизацией ИИ выглядит не как случайный побочный эффект новой технологии, а как продолжение очень старой человеческой привычки. Когда-то человек объяснял непонятное через волю, характер и намерение. Так было проще сделать мир осмысленным. 

Природные силы, случайность и судьба превращались в действующих лиц. Это позволяло сознанию иметь дело не с обезличенным процессом, а с кем-то, у кого есть мотив и отношение к происходящему.

Чат-боты не создали указанную привычку. Они лишь придали ей новую форму. 

Боги Олимпа. Данные: Wiki

Однако теперь она отличается от прежних одной принципиальной чертой: если гром, море или засуха ничего не отвечали человеку напрямую, то ИИ отвечает. Причем делает это быстро, последовательно и в той же языковой системе, в которой человек привык строить отношения с другими людьми. 

Поэтому древний механизм очеловечивания в цифровую эпоху получает необычайно плодотворную почву.

Как результат, разговор о чат-ботах касается не только технологий и путей их развития. Сам характер взаимодействия человека с ИИ многое говорит о нем самом — о стремлении искать отклик и превращать даже холодную вычислительную систему в участника общения.

Сообщение Машина с лицом человека: почему мы ищем в ИИ личность и обладает ли он чувствами? появились сначала на INCRYPTED.

Поділитися

Схожі новини