Компания испытывает искусственный интеллект для обработки сообщений. Специально разработанный алгоритм выявит в публикациях и комментариях пользователей «тревожные знаки», указывающие на их склонность к суициду. После этого аналитическая команда подтвердит полученную информацию и свяжется с человеком, чтобы предложить ему помощь специалиста.
Авторы программы уверены, что это не просто важное нововведение, а необходимое. Сейчас проект тестируется в США. Это первый случай, когда искусственный интеллект используют для чтения электронных сообщений.
В минувшем месяце основатель компании Марк Цукерберг заявил, что алгоритмы применяют при вычислении сообщений экстремистской направленности.