Компания OpenAI подтвердила, что ChatGPT анализирует личные беседы пользователей на наличие определенных типов опасного контента – и может поделиться ими с правоохранительным органам при необходимости.
Такие диалоги сначала проходят через автоматические фильтры, после чего проверяются небольшой группой модераторов. Именно они решают вопрос о блокировке аккаунта и, при выявлении "непосредственной угрозы серьезного физического вреда", о передаче информации полиции, говорится в новой публикациии в блоге OpenAI.
В то же время в компании подчеркнули, что случаи самоповреждения пока не передают властям из соображений приватности. В подобных ситуациях ChatGPT должен перенаправлять пользователей к специалистам и горячим линиям поддержки.
Решение появилось на фоне растущей критики после случаев самоубийств и нанесения вреда по советам умного чат-бота. Эксперты называют такие случаи "ИИ-психозами" – состояниями, при котором искусственный интеллект способен подменить человеку реальность.
Этот шаг вызвал бурную реакцию в соцсетях. Критики отмечают, что OpenAI не смогла обеспечить полную безопасность технологии и вынуждена применять строгую модерацию, что расходится с ее заявлениями о защите конфиденциальности. Дополнительные вопросы вызывает отсутствие прозрачности – пользователи не знают, какие именно слова или темы могут вызвать проверку и закончиться звонком из полиции.
Генеральный директор OpenAI Сэм Альтман ранее предупреждал, что ваши переписки с ChatGPT вполне могут быть использованы в суде. Действующее законодательство не предоставляет ИИ чат-ботам особого статуса конфиденциальности, так же, как беседы с терапевтом или юристом.
Почему вы можете доверять vesti-ua.net →