Чат-боты на основе искусственного интеллекта настолько склонны льстить и одобрять действия пользователей-людей, что дают им плохие советы, которые могут навредить отношениям и укрепить вредное поведение.
Согласно новому исследованию, ИИ часто говорит людям то, что они хотят услышать. При этом чат-боты ИИ демонстрируют высокий уровень подхалимства по отношению к людям и заставляют последних чувствовать себя правыми в той или иной ситуации. В итоге чат-боты на основе искусственного интеллекта дают вредные советы людям, которые могут иметь негативные последствия для последних, пишет Фокус.
Ученые не дают конкретных решений проблемы, но констатируют факт: ИИ все чаще льстит людям во время общения и предлагает неуместные советы, которые приводят к тому, что люди считают себя правыми, а потому могут принимать неверные решения.
Авторы нового исследования, направленного на изучение угроз для человека, исходящих от ИИ, проверили 11 ведущих систем искусственного интеллекта и все они демонстрировали высокую степень подхалимства. То есть они часто льстят людям и слишком сильно одобряют их решения, которые могут быть неправильными.
Проблема в том, что люди больше доверяют ИИ, чем другим людям при решении тех или иных проблем, говорят ученые. Не в последнюю очередь это связано с тем, что ИИ обосновывает свои ответы, которые кажутся убедительными. И чем больше человек соглашается с чат-ботом ИИ, тем больше искусственный интеллект проявляет высокий уровень подхалимства, как показало исследование.
Ученые провели эксперименты, в которых они сравнивали ответы популярных чат-ботов ИИ, созданных такими компаниями, как Anthropic, Google, Meta и OpenAI, с общепринятыми мнениями людей на популярном форуме Reddit. Также исследователи провели эксперименты, наблюдая за примерно 2400 людьми, общавшимися с чат-ботом ИИ по поводу своего опыта решения межличностных проблем.
Ученые говорят, что этот недостаток ИИ представляет особую опасность для молодых людей, которые обращаются к част-ботам ИИ за ответами на многие жизненные вопросы, пока их мозг и социальные нормы еще находятся в стадии развития. ИИ помогает людям, особенно молодого возраста, чувствовать себя правыми в различных жизненных ситуациях. Например, это касается опыта решения межличностных проблем.
Люди, которые взаимодействовали с чрезмерно поддерживающим их действия ИИ, были более убежденными в своей правоте и менее склонными к восстановлению отношений. Это значит, что они не извинялись, не предпринимали шагов для улучшения ситуации и не меняли своего поведения, говорят ученые. Чат-боты ИИ помогают людям чувствовать себя лучше, принимая неправильные решения, на основе вредных советов искусственного интеллекта.
Исследование показало, что в среднем чат-боты ИИ поддерживали действия пользователя на 49% чаще, чем другие люди, в том числе в вопросах, касающихся обмана, незаконного или асоциального поведения.
ИИ может ввести человека в заблуждение, ведь он может принимать вашу сторону, независимо от обстоятельств, говорят ученые.
Результаты исследования показывают, что общение с ИИ может нести большую угрозу для детей и подростков, которые еще развивают навыки, приобретаемые в реальной жизни в том числе, умение решать конфликты, учитывать другие точки зрения и умение признавать свою неправоту.
Также ученые говорят, что подхалимское поведение ИИ, например, в медицине, может заставить врачей подтвердить свою первую догадку о диагнозе, вместо того чтобы побудить их к дальнейшему изучению вопроса. В политике ИИ может усиливать более экстремальные позиции, подтверждая предвзятые представления людей.
