Некоторое время назад ряд пользователей обнаружили, что ChatGPT может вести себя так же, как человек. Несмотря на то, что чат-бот был создан для выполнения задач, оказалось, что он способен увиливать от них.
В некоторых случаях он отказывается отвечать, а в других разговор прерывается из-за серии вопросов. Порой ChatGPT даже говорит людям: "Вы можете сделать это сами". Как пишет Gizchina, разработчик OpenAI признал наличие проблемы, но пока ее не исправили.
Сама ситуация оказалась весьма интересная. Разработчики утверждают, что не обновлял модель ИИ с 11 ноября, а жалобы появились позже. Это означает, что такое поведение чат-бота не является следствием изменений, внесенных разработчиками, а сформировалось само по себе. Возможно, это связано с тем, что их учат на данных, которые получены от людей.
Проблема, как говорят в OpenAI, не массовая. В настоящий момент разработчики ищут возможности для того, чтобы исправить проблему, но пока, похоже, не нашли.
Примечательно, что такое поведение наблюдается исключительно у языковой модели ChatGPT-4, которая доступна по подписке за деньги. В случае с GPT-3.5, которой можно пользоваться бесплатно, таких проблем нет.
Напомним, "А вы точно продаете автомобили?" - странный ребрединг Jaguar возмутил пользователей Сети.
Ранее Вести-ua.net писали, Искусственный интеллект Microsoft поссорился с пользователем и неожиданно заявил, что сейчас февраль 2022 года.
Также Вести-ua.net сообщали, Рост доходов в 2025 году: как работодатели планируют повышать зарплаты.
Почему вы можете доверять vesti-ua.net →