У Голлівуді набирає обертів масштабний спротив штучному інтелекту. Понад 800 представників індустрії розваг — актори, режисери, музиканти та письменники — підписали відкритий лист до провідних AI-компаній із чітким посланням: «Крадіжка — це не інновація». Автори звернення вимагають припинити безоплатне використання творчих робіт для навчання нейромереж і перейти до ліцензування контенту. Про це пише The Guardian.
Хто підписав лист і що вимагають митці
Серед тих хто підписав – актори Скарлетт Йоганссон і Кейт Бланшетт, творець серіалу Пуститися берега Вінс Гілліган, актор і режисер Джозеф Гордон-Левітт, співачка Сінді Лопер, а також легендарний гурт R.E.M. Загалом ініціативу підтримали близько 800 представників творчих професій.
«Крадіжка — це не прогрес»
У тексті заяви наголошується, що технологічні компанії масово використовують творчі роботи — сценарії, музику, книги, голоси та образи — для створення AI-продуктів без дозволу та без компенсації авторам. Учасники кампанії прямо заявляють:
«Крадіжка нашої роботи — це не інновація. Це не прогрес. Це звичайне привласнення».
За словами митців, нейромережі будуються на роках людської праці, але прибутки від цього отримують лише технологічні корпорації, тоді як автори залишаються без контролю та винагороди.
Що саме вимагає Голлівуд
Головна вимога кампанії – перехід від масового збору даних до легальних ліцензійних угод: митці наполягають, щоб AI-компанії отримували згоду авторів, платили за використання контенту та поважали авторське право. У заяві також відзначають позитивні приклади – зокрема, OpenAI, яка уклала угоди з правовласниками, та Warner Music Group, що працює з AI-сервісами на ліцензованій основі.
Історія Скарлетт Йоганссон як сигнал тривоги

Окрему увагу в дискусії знову привернула історія зі Скарлетт Йоганссон. У 2024 році акторка публічно заявила, що голос одного з голосових асистентів OpenAI був надто схожий на її власний, хоча вона не давала згоди на використання свого образу.
Йоганссон тоді заявила, що була шокована, розгнівана й не могла повірити у те, що сталося. Після суспільного резонансу компанія прибрала цей голос із продукту, але інцидент став символом ризиків, які несе неконтрольоване використання AI.

1932