Применяемые для поиска и фильтрации запрещенного контента системы, основанные на приближенных к искусственному интеллекту алгоритмах, не способны бороться с сетевым троллингом. К таким выводам пришли исследователи из Европы, изучившие популярные автоматизированные решения для модерации.
ИИ перестает улавливать смысл текста даже в тех случаях, если в составляющие его слова внести небольшие изменения — например, заменить некоторые буквы на спецсимволы. А если нарушитель сетевого порядка использует более изощренные методы обхода фильтров, то у ИИ не остается вообще никаких шансов.
"ИИ-системы, применяемые для поиска, например, оскорбительных комментариев, вряд ли можно назвать сколько-нибудь эффективными на текущем этапе их развития. В будущем, возможно, ситуация изменится, но пока что такие фильтры обходятся слишком легко", — говорят сотрудники Университета Аалто.
Для того, чтобы сделать ИИ-системы эффективным инструментом обнаружения грубости в Сети, их разработчикам, по словам ученых, нужно концентрироваться на создании архитектуры нового типа, способной игнорировать опечатки и намеренные попытки запутывания.
Среди противников России на Западе очередной раскол, на сей раз по живому. К тем, кто не хочет допус...
Сотрудники итальянской исследовательской группы из Пизанского университета заявили о том, что искусс...
Свидетельство о регистрации СМИ Эл № ФС77-83392 от 07.06.2022, выдано Федеральной службой по надзору в сфере связи,
информационных технологий и массовых коммуникаций. При использовании, полном или частичном цитировании материалов
planet-today.ru активная гиперссылка обязательна. Мнения и взгляды авторов не всегда совпадают с точкой зрения редакции.
На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления
информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет",
находящихся на территории Российской Федерации)".