
Нове інтерв’ю Джареда Каплана окреслює переломний момент, коли людству доведеться визначити межі автономності систем ШІ.

У статті аналізується бачення Каплана щодо рекурсивного самовдосконалення ШІ, яке може породити «вибух інтелекту» і водночас серйозні ризики втрати контролю над технологіями. Далі розглядаються його попередження про можливе зміщення балансу сил між людьми та машинами, етичні виклики та необхідність глобального регулювання.
Каплан наголошує, що здатність ШІ самостійно вдосконалювати алгоритми та залучати інші моделі для власного прискореного розвитку створює небачені загрози. Він підкреслює, що після досягнення рівня, вищого за людський, «вирівнювання» ШІ за цінностями може стати неможливим. Серед головних ризиків він виділяє втрату прозорості цілей системи та концентрацію потужності в руках вузького кола гравців, включно з потенційно недобросовісними.
Вчений прогнозує, що між 2027 і 2030 роками доведеться вирішити, чи дозволяти моделям автономно еволюціонувати. Він зазначає, що вже за два-три роки ШІ зможе виконувати більшість офісних завдань, а його син «ніколи не перевершить ШІ в академічній роботі». Попри появу небезпек, Каплан бачить і позитив: розвиток біомедичних досліджень, безпеки та продуктивності.
Anthropic просуває концепцію «конституційного ШІ», коли поведінка моделі регулюється прописаними етичними принципами. Та Каплан визнає, що такі методи можуть виявитися недостатніми для контролю над надлюдським інтелектом. Він застерігає від можливості, що «хтось може захотіти перетворити ШІ на власного слугу», що здатне призвести до технологічного захоплення влади.
Автор наголошує на потребі глобального діалогу та участі міжнародних організацій у формуванні правил автономного розвитку ШІ. Політики, на його думку, мають бути добре поінформованими, аби сприяти безпечному впровадженню технологій і запобігти їхньому зловживанню.
Експерт Anthropic попереджає про ризики втрати контролю над ШІ з’явилася спочатку на Цікавості.

2858