Новые ШИ-модели Google могут распознавать эмоции

10.12.2024 00:30    299

Компания Google представила новое семейство моделей искусственного интеллекта PaliGemma 2, способных анализировать изображения и создавать подписи, описывающие объекты, действия и эмоции людей Однако функция распознавания эмоций вызвала серьезные оговорки среди ученых и экспертов из-за потенциальных рисков. Как заявляет Хайди Хлааф из AI Now Institute: «Эмоции – это сложная категория, которую нельзя надежно определить только на основе визуальной информации».

by @freepik

Технологии анализа эмоций базируются на исследованиях Пола Экмана, выделившего шесть базовых эмоций: радость, страх, гнев, уныние, удивление и сразу. Однако современные исследования указывают на значительное влияние культурного и индивидуального контекстов на выражение эмоций, что подвергает сомнению универсальность таких систем. Кроме того, такие модели могут быть пристрастными. Например, исследование Массачусетского технологического института показало, что алгоритмы чаще приписывают негативные эмоции чернокожим людям по сравнению с белыми, что может вызвать дискриминацию.

Последние новости:  Основные элементы жизни могли образоваться всего через 100 миллионов лет после Большого взрыва

Google заявляет о проведении тестов на демографические предубеждения с помощью базы данных FairFace, но эксперты полагают, что этого недостаточно. База включает ограниченный набор категорий, что не позволяет в полной мере оценить риски. Кроме того, европейский закон об искусственном интеллекте уже запрещает использование систем распознавания эмоций в школах и рабочих местах, хотя такие технологии все еще допускаются в правоохранительной деятельности.

Последние новости:  В Китае успешно опробовали энергетическое оружие мощностью 1 ГВт.

Критика касается и риска применения таких моделей в найме персонала или принятии финансовых решений, что может усиливать дискриминацию.

"Если определение эмоций основывается на псевдонаучных предположениях, это может привести к необоснованной дискриминации в самых разных сферах", - отмечает Хлааф.

Представители Google утверждают, что проводят тщательный анализ рисков, но многие эксперты считают, что этих усилий недостаточно. Как отмечает Сандра Вахтер из Оксфордского университета, ответственная разработка технологий требует анализа их последствий на каждом этапе. Она призывает к прозрачности и ответственности в разработке моделей, что позволит минимизировать этические риски и предотвратить возможные злоупотребления.




Похожие новости

  1. Система датчиков на лице распознает эмоции в реальном времени Ученые разработали персонализированный лицевой интерфейс, сочетающий выявление деформации мышц лица и вибрации голосовых связок для распознавания эмоций в режиме реального времени.
  2. Новый алгоритм ИИ определяет депрессию с точностью 97,5% Литовские ученые создали алгоритм искусственного интеллекта, который через пять минут способен диагностировать депрессию с высокой точностью, анализируя данные о голосе и активности мозга.
  3. Может ли искусственный интеллект придерживаться человеческих норм морали. Студенты Оксфордского университета исследуют, способны ли системы искусственного интеллекта действовать нравственно, анализируя возможность их соответствия человеческим моральным нормам.
Последние новости:  Потепление климата изменяет прорастание растений и нарушает баланс экосистемы.


cikavosti.com