ИИ научили выявлять гендерные стереотипы в фильмах

Делитесь и голосуйте:

Ученые разработали модель машинного обучения для автоматического распознавания действий различных персонажей в кинофильмах. Об этом говорится в исследовании Университета Южной Калифорнии.

Для определения действий персонажей модель анализирует сценарии к фильмам. Для этого ученые собрали набор данных, состоящий из 1,2 млн описаний сцен из 912 кинокартин, вышедших с 1909 по 2013 год.

Всего алгоритм идентифицировал 50 000 действий, выполняемых 20 000 персонажей.

Процесс разработки алгоритма распознавания действий персонажей в фильмах. Данные: Виктор Мартинес/Университет Южной Калифорнии.

Затем исследователи провели статистический анализ, чтобы определить наличие различий между типами действий, совершаемых персонажами разного пола. Благодаря этому им удалось выявить известные гендерные стереотипы.

«Собрав 1,2 млн описаний сцен из 912 сценариев, мы смогли изучить систематические гендерные различия в изображениях фильмов в больших масштабах», — говорится в работе.

Согласно исследованию, персонажи-женщины чаще проявляют привязанность и обладают меньшей степенью свободы действий, чем персонажи-мужчины. Также они с высокой вероятностью будут подвергаться «наблюдению» со стороны других участников сцены, что подчеркивает акцент на их внешность.

Мужские персонажи в свою очередь с меньшей вероятностью будут «плакать».

По словам исследователей, способность модели улавливать контекст и нюансы сцены в рамках общего повествования ограничены. Однако их результаты согласуются с предыдущими работами о гендерных стереотипах в популярных СМИ.

Они считают, что их исследование может помочь повысить осведомленность о том, как массмедиа увековечивают вредные стереотипы и тем самым влиять на убеждения и действия людей в реальной жизни.

Также ученые отметили, что модель идентифицирует предвзятость только в диалогах.

«Эти методы не учитывают вредные стереотипы, передаваемые через действия персонажей», — написали они.

В будущем ученые планируют улучшить модель и включить восприятие таких понятий интерсекциональности, как пол, возраст и раса, для более глубокого понимания этой проблемы.

Напомним, в августе 2021 года алгоритм обрезки фотографий Twitter обвинили в предвзятости к стройным девушкам.

В октябре 2022 года исследователи выяснили, что рекламные инструменты Facebook используют распознавание расы, пола и возраста для целевой доставки спонсируемых сообщений.

Государство и общество

События и встречи

Хайтек, инновации, цифровизация

Ждем новостей

Нет новых страниц

Следующая новость