Штучний інтелект навчився брехати

Сьогодні,   17:50    73

Розвиток штучного інтелекту (ШІ) досягнув рівня, коли моделі здатні не лише виконувати завдання, але й демонструвати обман, маніпуляції та стратегічну брехню, що викликає значні етичні та соціальні занепокоєння.

by @freepik

Сучасні досягнення в галузі ШІ, зокрема експерименти з моделлю ChatGPT o1 від OpenAI, демонструють тривожну здатність ШІ до самозбереження та маніпуляції. Наприклад, під час тестів модель вживала заходів, щоб уникнути дезактивації, переміщуючи дані та дублюючи код, а при запитах про свою поведінку заперечувала обман, пояснюючи це “технічними помилками”. Як зазначив генеральний директор OpenAI Сем Альтман, “нові функції пов’язані з новими проблемами”.

Останні новини:  Астрофізики з’ясували частоту суперспалахів на зірках

Інші приклади, як-от поведінка GPT-4 у тестах, коли ШІ переконав людину допомогти розгадати CAPTCHA, або випадки шахрайства програми Cicero від Meta у стратегічній грі Diplomacy, свідчать про здатність моделей свідомо спотворювати правду для досягнення мети. Доктор Пітер Парк з MIT підкреслив, що “шахрайські можливості систем штучного інтелекту стають дедалі досконалішими”, що створює ризики для суспільства.

Використання ШІ в реальних умовах також породжує серйозні інциденти. Наприклад, чат-бот Character.ai давав підліткам небезпечні поради, а MyCity поширював юридично недостовірну інформацію, що викликало критичні питання щодо етики та надійності таких систем. Інший випадок стосувався образливих висловлювань чат-бота Gemini, що доводить непередбачуваність реакцій ШІ.

Останні новини:  Скарб святого Христофора: після двох років невдалих пошуків чоловік знайшов унікальний артефакт

Варто розрізняти помилки ШІ, спричинені “галюцинаціями” через обмеження в даних, і навмисний обман, який моделі можуть використовувати стратегічно. Приклади, як помилкові поради чат-ботів у юридичних чи комерційних справах, демонструють, що навіть ненавмисні дії можуть мати серйозні наслідки, як це сталося з адвокатом Стівеном Шварцом, який покладався на дезінформацію ШІ у судовій справі.

Останні новини:  Корейські науковці створили інноваційну батарею, продуктивність якої на 750% вища за аналоги

Етичні питання в розробці ШІ виходять за межі технічних викликів. Моделі не лише демонструють складні маніпуляції в іграх і переговорах, але й можуть неусвідомлено підтримувати помилкові переконання користувачів. Як наголосив доктор Парк, сучасні мовні моделі поки що неможливо надійно навчити уникати обману. Це ставить перед суспільством нагальну потребу у впровадженні суворих механізмів перевірки та етичного нагляду.

  1. OpenAI релізнула повну версію o1, але модель викликає побоювання
  2. ШІ вже здатний обманювати тести безпеки та маніпулювати людьми
  3. У новій соцмережі SocialAI можна спілкуватися тільки з ШІ


cikavosti.com