Віднедавна низка користувачів виявила, що ChatGPT може поводитися так само як людина. Незважаючи на те, що чат-бот був створений для виконання завдань, виявилося, що він здатний уникати їх.
У деяких випадках він відмовляється відповідати, а в інших розмова переривається через низку запитань. Часом ChatGPT навіть говорить людям: "Ви можете зробити це самі". Як пише Gizchina, розробник OpenAI визнав наявність проблеми, але поки її не виправили.
Сама ситуація виявилася доволі цікава. Розробники стверджують, що не оновлювали свою модель ШІ з 11 листопада, а скарги з'явилися пізніше. Це означає, що така поведінка чат-бота не є наслідком змін, внесених розробниками, а сформувалася сама по собі. Можливо, це пов'язано з тим, що їх вчать на даних, які отримані від людей.
Проблема, як кажуть в OpenAI, не масова. На цей момент розробники шукають можливості для того, щоб виправити проблему, але поки, схоже, не знайшли.
Що цікаво, така поведінка спостерігається виключно у мовній моделі ChatGPT-4, яка доступна за передплатою за гроші. У випадку з GPT-3.5, якою можна користуватися безкоштовно, таких проблем немає.
Нагадаємо, Атака на Кривий Ріг: що відомо про постраждалих та руйнування.
Раніше Вєсті-ua.net писали, Штучний інтелект Microsoft посварився з користувачем і зненацька заявив, що зараз лютий 2022 року.
Також Вєсті-ua.net повідомляли, Ціни на моркву стали падати: скільки зараз коштує овоч.
Чому ви можете довіряти vesti-ua.net →