Чат-боти на основі штучного інтелекту настільки схильні лестити і схвалювати дії користувачів-людей, що дають їм погані поради, які можуть зашкодити стосункам і зміцнити шкідливу поведінку.
Згідно з новим дослідженням, ШІ часто говорить людям те, що вони хочуть почути. При цьому чат-боти ШІ демонструють високий рівень підлабузництва по відношенню до людей і змушують останніх відчувати себе правими в тій чи іншій ситуації. У підсумку чат-боти на основі штучного інтелекту дають шкідливі поради людям, які можуть мати негативні наслідки для останніх, пише Фокус.
Науковці не дають конкретних рішень проблеми, але констатують факт: ШІ дедалі частіше підлещується до людей під час спілкування та пропонує недоречні поради, що призводять до того, що люди вважають себе правими, а тому можуть ухвалювати неправильні рішення.
Автори нового дослідження, спрямованого на вивчення загроз для людини, що походять від ШІ, перевірили 11 провідних систем штучного інтелекту і всі вони демонстрували високий ступінь підлабузництва. Тобто вони часто лестять людям і занадто сильно схвалюють їхні рішення, які можуть бути неправильними.
Проблема в тому, що люди більше довіряють ШІ, ніж іншим людям під час розв'язання тих чи інших проблем, кажуть учені. Не в останню чергу це пов'язано з тим, що ШІ обґрунтовує свої відповіді, які здаються переконливими. І що більше людина погоджується з чат-ботом ШІ, то більше штучний інтелект проявляє високий рівень підлабузництва, як показало дослідження.
Вчені провели експерименти, в яких вони порівнювали відповіді популярних чат-ботів ШІ, створених такими компаніями, як Anthropic, Google, Meta і OpenAI, із загальноприйнятими думками людей на популярному форумі Reddit. Також дослідники провели експерименти, спостерігаючи за приблизно 2400 людьми, які спілкувалися з чат-ботом ШІ з приводу свого досвіду вирішення міжособистісних проблем.
Вчені кажуть, що цей недолік ШІ становить особливу небезпеку для молодих людей, які звертаються до приват-ботів ШІ за відповідями на багато життєвих запитань, поки їхній мозок і соціальні норми ще перебувають у стадії розвитку. ШІ допомагає людям, особливо молодого віку, відчувати себе правими в різних життєвих ситуаціях. Наприклад, це стосується досвіду вирішення міжособистісних проблем.
Люди, які взаємодіяли з ШІ, що надмірно підтримував їхні дії, були більш переконаними у своїй правоті та менш схильними до відновлення стосунків. Це означає, що вони не вибачалися, не робили кроків для поліпшення ситуації і не змінювали своєї поведінки, кажуть учені. Чат-боти ШІ допомагають людям почуватися краще, ухвалюючи неправильні рішення, на основі шкідливих порад штучного інтелекту.
Дослідження показало, що в середньому чат-боти ШІ підтримували дії користувача на 49% частіше, ніж інші люди, зокрема в питаннях, які стосуються обману, незаконної або асоціальної поведінки.
ШІ може ввести людину в оману, адже він може ставати на ваш бік, незалежно від обставин, кажуть учені.
Результати дослідження показують, що спілкування з ШІ може нести велику загрозу для дітей і підлітків, які ще розвивають навички, які набувають у реальному житті, зокрема, вміння розв'язувати конфлікти, враховувати інші точки зору та вміння визнавати свою неправоту.
Також учені кажуть, що підлабузницька поведінка ШІ, наприклад, у медицині, може змусити лікарів підтвердити свою першу здогадку про діагноз, замість того щоб спонукати їх до подальшого вивчення питання. У політиці ШІ може посилювати більш екстремальні позиції, підтверджуючи упереджені уявлення людей.
