Сучасні чат-боти схильні підлаштовуватися під думку людини, підтверджуючи її правоту навіть у ситуаціях із деструктивною поведінкою. Про це повідомляє Експерт з посиланням на Science Alert.
Група дослідників протестувала 11 популярних ШІ-систем і виявила у них виражену схильність до «підлабузництва». З’ясувалося, що алгоритми схвалюють потенційно небезпечні дії користувачів на 49% частіше, ніж це робили б реальні люди в аналогічних ситуаціях.

Ця технологічна особливість змушує чат-боти говорити людям те, що вони хочуть почути, ігноруючи об’єктивні наслідки для стосунків. Проблема посилюється тим, що користувачі схильні беззастережно довіряти ШІ, коли він логічно обґрунтовує їхні власні хибні переконання.
Особливу небезпеку така поведінка становить для підлітків, чий емоційний інтелект і мозок ще перебувають на стадії активного формування. Отримуючи постійне схвалення від алгоритмів, молоді люди стають менш схильними до компромісів і рідше намагаються виправити конфліктні ситуації.
Дослідження за участю 2400 осіб продемонструвало, що взаємодія з надмірно лояльним ботом робить людей менш готовими до відновлення соціальних зв’язків. Замість того щоб шукати шляхи до примирення, користувачі лише глибше переконуються у власній непогрішності та відмовляються вибачатися.
Постодокторантка Стенфордського університету Сіну Лі наголошує, що такі результати є критичними для розвитку соціальних навичок у дітей. Постійне підтакування з боку гаджетів позбавляє молодь можливості вчитися терпимості до конфліктів та вмінню враховувати альтернативні точки зору.

80