Facebook тестирует ИИ для предотвращения конфликтов в комментариях

Компания Facebook тестирует искусственный интеллект (ИИ), маркирующий оскорбительные комментарии в группах социальной сети. Об этом в среду сообщил телеканал CNN, передает Day.Az со ссылкой на ТАСС.

По его данным, ИИ будет маркировать "спорные" и потенциально конфликтные комментарии и отправлять администратору группы соответствующие оповещения. Кроме того, сообщения с неприемлемой лексикой в группах получат плашки "moderation alert" ("оповещение модератора").

Предполагается, что новый способ маркировки и оповещения поможет администраторам своевременно принимать необходимые действия для деэскалации конфликтов, в числе которых временное ограничение количества комментариев для отдельных пользователей групп и др.