Компанія OpenAI підтвердила, що ChatGPT аналізує особисті бесіди користувачів на наявність певних типів небезпечного контенту – і може поділитися ними з правоохоронним органам за необхідності.
Такі діалоги спочатку проходять через автоматичні фільтри, після чого перевіряються невеликою групою модераторів. Саме вони вирішують питання про блокування облікового запису і, у разі виявлення "безпосередньої загрози серйозної фізичної шкоди", про передання інформації поліції, йдеться в новій публікації в блозі OpenAI.
Водночас у компанії наголосили, що випадки самоушкодження поки що не передають владі з міркувань приватності. У подібних ситуаціях ChatGPT має перенаправляти користувачів до фахівців і гарячих ліній підтримки.
Рішення з'явилося на тлі зростаючої критики після випадків самогубств і заподіяння шкоди за порадами розумного чат-бота. Експерти називають такі випадки "ШІ-психозами" – станами, за яких штучний інтелект здатний підмінити людині реальність.
Цей крок викликав бурхливу реакцію. Критики зазначають, що OpenAI не змогла забезпечити повну безпеку технології і змушена застосовувати сувору модерацію, що розходиться з її заявами про захист конфіденційності. Додаткові питання викликає відсутність прозорості – користувачі не знають, які саме слова або теми можуть викликати перевірку і закінчитися дзвінком із поліції.
Генеральний директор OpenAI Сем Альтман раніше попереджав, що ваші листування з ChatGPT можуть бути використані в суді. Чинне законодавство не надає ШІ чат-ботам особливого статусу конфіденційності, так само, як розмови з терапевтом або юристом.
Нагадаємо, Удар по українському кораблю "Сімферополь": кількість загиблих зросла.
Раніше Вєсті-ua.net писали,
Також Вєсті-ua.net повідомляли, Ціни на пальне у вересні: скільки коштуватиме бензин.
Чому ви можете довіряти vesti-ua.net →