У межах семінару "Великі дебати про штучний інтелект" на заході Abundance Summit, відомий мільярдер Ілон Маск заявив, що штучний інтелект (ШІ) може знищити людство. Однак, попри навіть на такий ризик, мільярдер закликав однаково розвивати такі технології, передає Business insider.
На думку Маск сказав, ШІ може призвести до загибелі людства. В оцінках ризиків він погодився з Джеффрі Гінтоном — вченим і екскерівником відділу досліджень ШІ в Google, але вважає, що ймовірний успіх переважує наслідки негативного сценарію. Цікаво, що Ілон Маск не згадав, як саме розраховували ризики.
"Я думаю, є певний шанс, що це покладе кінець людству. Я, напевно, погоджуся з Джеффом Гінтоном, що це близько 10% або 20% або щось на зразок того", — сказав Ілон.
Роман Ямпольський, дослідник безпеки ШІ та директор лабораторії кібербезпеки в Університеті Луїсвілля, розповів Business Insider, що Маск має рацію, кажучи, що ШІ може становити екзистенціальну загрозу для людства, але Маск надто консервативний, згідно з оцінкою Романа.
"На мою думку, показник p(doom) набагато вищий", — сказав Ямпольський.
P(doom) — це ймовірність дуже поганих результатів (наприклад, вимирання людства) унаслідок застосування ШІ, — ред. Під p(doom) також мають на увазі ситуацію, у якій ШІ візьме контроль над людством або спричинить подію, що покладе край людству, наприклад, створить нову біологічну зброю або спричинить колапс унаслідок масштабної кібератаки, або ядерної війни.
Газета The New York Times назвала (p)doom новою жахливою статистикою, що охопила Кремнієву долину, водночас різні керівники технологічних компаній, за словами видання, вважають, що ймовірність апокаліпсису, спричиненого ШІ, становить від 5% до 50%. Ямпольський оцінює ризик у 99,999999%, оскільки буде неможливо контролювати просунутий ШІ. На його думку, краще таку технологію і не створювати взагалі.
"Не розумію, чому Маск вважає, що розвивати цю технологію — хороша ідея", — прокоментував Ямпольський. — "Якщо він занепокоєний тим, що конкуренти доберуться до неї першими, це не має значення, оскільки неконтрольований надінтелект однаково поганий, незалежно від того, хто його створив".
У листопаді минулого року Ілон Маск сказав, що ймовірність того, що технологія зрештою зіпсується, не дорівнює нулю, однак він був оптимістичнішим у своїх оцінках, ніж сьогодні. Хоча він і був прихильником регулювання ШІ, минулого року Ілон заснував компанію під назвою xAI, метою якої є подальше розширення можливостей цієї технології. xAI є конкурентом OpenAI.
На саміті Ілон Маск заявив, що до 2030 року цифровий інтелект перевищить весь людський інтелект разом узятий, стверджуючи, що потенційні позитивні сторони переважують негативні, Маск визнав ризик для світу, якщо розвиток ШІ продовжиться нинішньою траєкторією в деяких сферах.
"Одна з речей, які, на мою думку, неймовірно важливі для безпеки ШІ, — це наявність ШІ, який максимально допитливий і шукає істини", — підкреслив бізнесмен.
На його думку, найкращий спосіб досягти безпеки ШІ — розвивати ШІ таким чином, щоб він був правдивим.
"Не змушуйте його брехати, навіть якщо правда неприємна", — сказав Маск.
Дослідники виявили, що, щойно ШІ навчиться брехати людям, оманливу поведінку неможливо буде змінити за допомогою наявних заходів безпеки. Про це, зокрема, писало медіа The Independent. У матеріалі йшлося про те, що якщо ШІ-модель демонструватиме оманливу поведінку, то нинішні методи навчання техніці безпеки не гарантують безпеку, але навіть можуть створити хибне враження про безпеку. Учені також упевнені, що ШІ може навчитися обманювати, як то кажуть, просто так.
Джеффрі Гінтон вважає, що якщо нейромережа стане набагато розумнішою за людей, вона зможе маніпулювати ними, тому що вона навчиться цього у людей. Про це він заявив у коментарі CNN.
Чому ви можете довіряти vesti-ua.net →
Читайте vesti-ua.net в Google News