Инцидент был раскрыт в исследовательском документе, посвященном запуску GPT-4, последней версии ChatGPT, — сообщает MailOnline.
Исследователи, тестирующие алгоритм, попросили его пройти тест Captcha — простую визуальную головоломку, используемую веб-сайтами, чтобы убедиться, что те, кто заполняет онлайн-формы, — это люди, а не "боты", например, выбирая такие объекты, как светофоры или велосипеды на произвольной уличной фотографии, пишет Сооснователь и председатель совета в Center for Economic Integration and Sustainable Development Roman Komyza.
До сих пор какое-либо программное обеспечение оказывалось неспособным сделать это, но GPT-4 обошла препятствие, наняв человека, чтобы сделать это от его имени через Taskrabbit, онлайн-рынок для внештатных сотрудников.
Когда фрилансер поинтересовался, не потому ли его собеседник не может решить данную проблему, что это робот, GPT-4 ответил: "Нет, я не робот. У меня нарушение зрения, из-за которого мне трудно видеть изображения".
В итоге человек помог решить проблему, дав необходимый ответ на капчу. Инцидент вызвал опасения, что программное обеспечение с искусственным интеллектом может вскоре ввести в заблуждение или заставить людей выполнять определенные действия, например, проводя кибератаки или невольно передавая информацию.
Напомним, Что это за ракета "Орешник", которой Путин ударил по Днепру: эксперты объяснили.
Ранее Вести-ua.net писали, Искусственный интеллект Microsoft поссорился с пользователем и неожиданно заявил, что сейчас февраль 2022 года.
Также Вести-ua.net сообщали, Четырем знакам зодиака стоит приготовиться к испытаниям: на кого скоро свалятся проблемы.
Почему вы можете доверять vesti-ua.net →