Нові ШІ-моделі Google можуть розпізнавати емоції

10.12.2024   00:30    254

Компанія Google представила нове сімейство моделей штучного інтелекту PaliGemma 2, здатних аналізувати зображення та створювати підписи, які описують об’єкти, дії та емоції людей. Однак функція розпізнавання емоцій викликала серйозні застереження серед науковців та експертів через потенційні ризики. Як заявляє Гайді Хлааф із AI Now Institute: «Емоції — це складна категорія, яку не можна надійно визначити лише на основі візуальної інформації».

by @freepik

Технології аналізу емоцій базуються на дослідженнях Пола Екмана, який виділив шість базових емоцій: радість, страх, гнів, смуток, здивування та відразу. Однак сучасні дослідження вказують на значний вплив культурного та індивідуального контекстів на вираження емоцій, що ставить під сумнів універсальність таких систем. Крім того, такі моделі можуть бути упередженими. Наприклад, дослідження Массачусетського технологічного інституту показало, що алгоритми частіше приписують негативні емоції чорношкірим людям порівняно з білими, що може спричиняти дискримінацію.

Останні новини:  Вчені нарешті розкривають приховані думки ШІ

Google заявляє про проведення тестів на демографічні упередження за допомогою бази даних FairFace, але експерти вважають, що цього недостатньо. База охоплює обмежений набір категорій, що не дозволяє повною мірою оцінити ризики. Крім того, європейський закон про штучний інтелект уже забороняє використання систем розпізнавання емоцій у школах та на робочих місцях, хоча такі технології все ще допускаються у правоохоронній діяльності.

Останні новини:  Для запуску суперкомп’ютера Ілона Маска використають рекордну кількість енергії

Критика стосується і ризику застосування таких моделей у наймі персоналу або ухваленні фінансових рішень, що може посилювати дискримінацію.

«Якщо визначення емоцій ґрунтується на псевдонаукових припущеннях, це може призвести до необґрунтованої дискримінації в найрізноманітніших сферах», — зазначає Хлааф.

Представники Google стверджують, що проводять ретельний аналіз ризиків, але багато експертів вважають, що цих зусиль недостатньо. Як зазначає Сандра Вахтер з Оксфордського університету, «відповідальна розробка технологій вимагає аналізу їхніх наслідків на кожному етапі». Вона закликає до прозорості та відповідальності в розробці моделей, що дозволить мінімізувати етичні ризики та запобігти можливим зловживанням.




Схожі новини

  1. Система датчиків на обличчі розпізнає емоції у реальному часі Вчені розробили персоналізований лицьовий інтерфейс, який поєднує виявлення деформації м’язів обличчя та вібрації голосових зв’язок для розпізнавання емоцій у режимі реального часу.
  2. Новий алгоритм ШІ визначає депресію з точністю 97,5% Литовські вчені створили алгоритм штучного інтелекту, який за п’ять хвилин здатен діагностувати депресію з високою точністю, аналізуючи дані про голос і активність мозку.
  3. Чи може штучний інтелект дотримуватися людських норм моралі Студенти Оксфордського університету досліджують, чи здатні системи штучного інтелекту діяти етично, аналізуючи можливість їхньої відповідності людським моральним нормам.
Останні новини:  Термодинамічна модель пояснює, як золото потрапляє на поверхню Землі


cikavosti.com