Цифрові привиди: ШІ відтворює голоси померлих

Сьогодні,   19:02    144

Уявіть: через рік після смерті матері ви відкриваєте застосунок — і чуєте її голос. Він відповідає на ваші запитання, жартує так, як вона жартувала, і використовує її улюблені фрази. Це не фантастика — це вже комерційна реальність. Як повідомляє Phys.org з посиланням на дослідників Університету Вірджинії, «griefbots» і «deadbots» — ШІ-системи, навчені на цифровому сліді людини (повідомлення, електронні листи, голосові записи, соціальні мережі), — переходять зі сфери наукової фантастики у щоденну реальність. І наука зараз намагається відповісти на питання, яке ще кілька років тому здавалось суто філософським: чи допомагають ці системи людям у горі — чи заважають їм?

Що відомо коротко

  • Джерело: Emma Candelier, University of Virginia (29 квітня 2026), Phys.org. Дослідниці: Рене Каммінгс (наука про дані і дата-етика, UVA School of Data Science) і Кімберлі Аквавіва (медсестринська освіта, UVA, авторка книжок про горе).
  • Паралельні наукові публікації: Spitale & Germani «The Making of Digital Ghosts» (University of Zurich, ITE Lab, arXiv:2511.20094, 2025); Li & Lan «Remember You» (CHI 2026, DOI: 10.1145/3772363.3798614); Divon & Pentzold «Artificially alive» (New Media & Society, 2025, DOI: 10.1177/14614448251397518).
  • Що таке «griefbot»: ШІ-чатбот / голосовий аватар / відеообраз, навчений на цифровому сліді конкретної людини. Дозволяє «спілкуватись» із симуляцією померлого.
  • Ринок: стрімко зростає — компанії «You, Only Virtual», «HereAfter AI», «StoryFile» та ін.
  • Реальні кейси: чоловік, що відтворив померлу наречену (Project December); Китай — молодий чоловік «воскресив» бабусю через ChatGPT; Arizona — ШІ-генерований «голос» жертви злочину виступив у суді (2025 р.).
  • Позиція Каммінгс: дата є вашим «цифровим життям» — питання власності, конфіденційності і управління після смерті.
  • Позиція Аквавіви: «ШІ-симуляція мене — не я. Це комерційна ілюзія для тих, хто горює».

Що це за явище

Горе є одним із найпотужніших і найуніверсальніших переживань людини — і психологи давно знають, що воно потребує активного переживання, а не уникнення. Класичні стадії горя (заперечення, гнів, торгівля, депресія, прийняття) або сучасніша концепція «oscillation» — балансування між горем і відбудовою — всі вони передбачають, що людина поступово навчається примирятись із відсутністю близької людини.

Дослідження CHI 2026 (Li & Lan, Fudan University) на 26 користувачах deadbot-сервісів виявило: люди не є «пасивними споживачами» цих систем — вони активно конструюють образ померлого, поєднуючи справжні спогади з особистими очікуваннями. Вони не просто «розмовляють з мертвими» — вони будують ідеалізованого «цифрового персонажа», що міксує реальне і бажане.

Деталі відкриття

Команда Spitale & Germani з Університету Цюриха (2025) систематизувала ключові етичні проблеми:

Згода і автономія: чи надавав померлий згоду на використання своїх даних? У більшості випадків — ні. Чи може родичка «дозволити» відтворення особистості своєї матері без її прижиттєвого дозволу?

«Залишкова особистість» (residual personhood): чи зберігає людина якісь права і гідність після смерті — і чи їх порушує «deadbot»?

Монетизація горя: компанії заробляють на найвразливіших моментах людського життя. Каммінгс попереджає: «engagement-driven design» (дизайн, орієнтований на залученість) може заохочувати залежність, а не зцілення.

«Цифровий привид» vs «справжній спогад»: існує принципова різниця між зберіганням фотографій або листів і тим, щоб отримувати нові «відповіді» від того, кого вже немає. Друге є генерацією нового контенту — а не збереженням наявного.

Що показали нові спостереження

Дослідники фіксують суперечливі результати серед користувачів. Частина людей відчуває тимчасове полегшення — особливо ті, хто відчуває соціальний тиск «рухатись далі» швидше, ніж вони готові. Для них griefbot може надавати «простір» для продовження внутрішньої розмови.

Але є й ризики. Занурення в симуляцію може подовжувати заперечення — першу стадію горя. Дехто повідомляє про «traumatic discontinuation» — коли застосунок закривається, перезавантажується або змінює свою поведінку, що сприймається як «повторна втрата». У 2023 р., коли Replika прибрала функцію рольових ігор, тисячі користувачів описали своїх «компаньйонів» як «зомбованих» — і скорботу, яка лунала як втрата живої людини.

Аквавіва говорить з особистого досвіду: «Коли я думаю про власні переживання у зв’язку з втратою моєї дружини — взаємодія з ШІ-симуляцією замість переживання смерті ускладнила б мені примирення з реальністю цієї втрати. Важливіше те, що це заважало б мені відбудувати своє життя і свою ідентичність. Велика частина цього процесу відбудови включала опору на сім’ю і друзів».

Останні новини:  150 гороскопів на черепках: астролог Августа відкрив свої таємниці

Чому це важливо для науки

Аквавіва вказує на ймовірний наслідок: «Ці технології стимулюватимуть інтерес до юридично обов’язкових «заповітів» щодо посмертного використання нашого цифрового образу або голосу». Це вже відбувається: деякі юридичні фірми у США вже пропонують послуги «цифрового заповіту» — включаючи інструкції про те, чи можна використовувати ваші дані для griefbot.

Питання регулювання стає гострим: ЄС у рамках AI Act і США через FTC розглядають можливість захисту «цифрової особистості» померлих. Але поки що законодавство значно відстає від технологій.

Цікаві факти

  • 👻 Термін «deadbot» з’явився у 2020 р. у науковій роботі дослідниці Хосе Брубейкер (University of Colorado Boulder), що вивчає «цифровий некропіс» — що відбувається з нашими соціальними мережами після смерті. Сьогодні Facebook має більше акаунтів померлих людей, ніж живих — і ця цифра зростає щороку. Griefbots йдуть ще далі: замість збереження даних вони активно генерують нові відповіді від імені мертвих. Джерело: Spitale & Germani, arXiv 2025.
  • 🤖 У 2025 р. в Арізоні суд вперше дозволив ШІ-генерований «голос» жертви вбивства виступити на слуханні про вирок. Система відтворила слова, які жертва написала до смерті — з її голосом і тоном. Суддя призначив смертну кару. Захисники кажуть, що це маніпуляція журі. Прихильники — що це дало голос тому, кого вже немає. Це перший відомий «юридичний deadbot» — і він ставить питання про допустимість цифрових свідчень. Джерело: Associated Press, Arizona, 2025.
  • 💰 Ринок «afterlife tech» у 2025 р. оцінювався у ~$800 млн і за прогнозами досягне $2–3 млрд до 2030 р. Серед гравців: HereAfter AI (збирає голосові записи і відповідає на запитання родичів після смерті), StoryFile (відеоінтерв’ю, що «живе» вічно), You, Only Virtual — і більші платформи, що тихо тестують функції «пам’яті» як частину своїх продуктів. Питання монетизації є центральним у дискусії: компанії заробляють на підписці — тобто фінансово зацікавлені у довшому «горі». Джерело: Divon & Pentzold, New Media & Society 2025.
  • 🧠 Дослідження Nature Human Behaviour (Kleinert et al., University of Freiburg, 2026) виявило: ШІ перевершує людей у встановленні емоційної близькості під час «глибоких розмов» — але лише якщо учасник вважає, що розмовляє з людиною. Це важливо для розуміння griefbots: людина, що «розмовляє з мамою», отримує сигнали близькості, що нейробіологічно неповністю відрізняються від спілкування з реальною людиною. Це і є потенційна «пастка залежності». Джерело: Kleinert et al., Nature Human Behaviour 2026.
Останні новини:  У Чумацькому Шляху знайшли слабкий слід наднової з гамма-випромінюванням

FAQ

Чи допомагають griefbots у переживанні горя? Дані суперечливі. Частина людей — особливо в гостру фазу горя або при соціальній ізоляції — повідомляє про тимчасове полегшення. Але систематичних довгострокових клінічних досліджень поки немає. Психологи попереджають: якщо система замінює роботу горя, а не доповнює її — довгостроковий ефект може бути негативним. Особливо для тих, хто і без того схильний до патологічного горя.

Хто має право «воскресити» людину в ШІ? Юридично — ситуація поки нерегульована в більшості країн. У США захист особистості є обмеженим і стосується переважно комерційного використання знаменитостей. Для звичайних людей — член сім’ї формально може зібрати публічні дані і навчити griefbot без будь-якого правового ризику. Законодавство суттєво відстає від технологій.

Чи можна завчасно «заборонити» своє цифрове воскресіння? Поки що — лише через юридичний заповіт або спеціальне «цифрове зобов’язання», яке деякі компанії починають пропонувати. Аквавіва вважає, що саме griefbots стимулюватимуть масове впровадження «цифрових директив» — юридично обов’язкових документів про посмертне використання ваших даних, голосу і образу.

У Facebook і Instagram сьогодні є більше акаунтів померлих людей, ніж живих — і ця цифра зростає щороку. До 2070 р., за деякими оцінками, померлі «користувачі» переважатимуть живих у декілька разів. Тепер уявіть, що кожен із цих акаунтів може «ожити» — відповідати на повідомлення, коментувати фотографії ваших дітей, «реагувати» на новини. Не тому що він живий. А тому що компанія навчила алгоритм на роках його цифрового сліду — і ваша підписка оплачує цю «безсмертність». Ми єдине покоління в історії людства, якому доведеться юридично вирішувати: чи хоче воно «жити» після смерті у вигляді набору даних.

Цифрові привиди: ШІ відтворює голоси померлих з’явилася спочатку на Цікавості.


cikavosti.com