Китайские разработчики создали модель ИИ для обнаружения сарказма

Решил опубликовать новую статью чисто из своего интереса. Вы уже из названия поняли, что это реально нереально интересно.

Специалисты из Китая заявили, что смогли создать искусственный интеллект по обнаружению сарказма. За основу базы данных были взяты твиты из Twitter. Нейросеть считывает текст поста и его картинку, после чего определяет, есть ли тут сарказм или нет.

Что такое сарказм?

Если говорить простым языком, то сарказм это когда язвительно говорят одно, а подразумевают совсем иное. Научно говоря, некорректная форма выражения эмоций, при которой поверхностная эмоция скрывает иную.

Что было раньше?

Пытались ли ранее делать так, что ИИ мог считывать сарказм? Да! Однако, обнаружение происходило только на текстовых высказываниях. За основу брали лексические индикаторы, маркеры, контекстную информацию (те же профили пользователей).

Но как мы знаем, в соц. сетях посты это не только текст, чаще всего посты вмещают в себя изображение и текст.

Что сделали

ИИ исследователей фокусируется на различиях между текстом и изображениями, а затем объединяет эти результаты для составления прогнозов. Он также сравнивает хэштеги с текстом твита, чтобы помочь оценить настроение, которое пытается передать пользователь.

В ходе тестирования модель китайских ученых показала улучшение на 2,74% по шкале F1 (оценка классификатора) сравнению с HFM (Hierarchical Fusion Model), представленной в прошлом году: новая нейросеть достигла 86% точности по сравнению с 83% у HFM.

Ученые начали использовать ИИ для изучения сарказма в Instagram, Tumblr и Twitter в 2016 году. В 2019 году исследователи из Мичиганского и Сингапурского университетов выпустили нейросеть для обнаружения сарказма в телешоу под названием MUStARD. Тесты показали, что использование мультимодальной информации может снизить уровень ошибок при обнаружении сарказма до 12,9% по шкале F1 по сравнению с оценкой одного типа информации.

Весной этого года Facebook рассказала об использовании искусственного интеллекта для выявления постов, нарушающих условия платформы. ИИ Facebook пытается обнаружить оскорбления, разжигание ненависти и хейтспич. В компании рассказали, что в первом квартале 2020 года соцсеть выявила и удалила 9,6 млн единиц контента, который был определён как оскорбительный или ненавистнический. Из 9,6 млн удалённых постов алгоритмы Facebook обнаружили 88,8% раньше, чем о них сообщили пользователи. Это на 86% больше, чем в предыдущем квартале.

Тем не менее, в Facebook признали, что алгоритмы пока не готовы к широкому развертыванию — точность их работы составляет около 65-70%.

Интересные статьи:

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: