Нейросеть "ВКонтакте" научили выявлять суицидальный контент
В социальной сети "ВКонтакте" начал работать "обученный" алгоритм, который присваивает картинкам специальный рейтинг, определяя, содержится ли в них противоправный или "опасный" контент, пишут "Известия". Алгоритм может распознавать на картинках объекты — людей, животных, растения. "Запрещенный" контент, который выявляет нейросеть, не попадает в поисковую выдачу и "умную" новостную ленту либо полностью блокируется. Также технология способна анализировать текстовые надписи на изображениях. Как рассказали в компании, нейросеть умеет определять предметы и сущности, изображенные на фото. Она отделяет на изображении человека от ребенка, понимает, где изображено растение, животное или символ "групп смерти". Нейросеть использует несколько тысяч классов, которые присваиваются фотографиям — от 0 до 1 по нескольким параметрам. Если алгоритм характеризует фото как "опасное", его направляют модераторам для проверки. "Умеренно опасные" фото пропадают из поисковой выдачи, в новостной ленте понижается их приоритет. Такой механизм позволяет остановить распространение спама, детской порнографии, мошенничества,  нелегальных услуг и другой противоправной деятельности. Для борьбы с суицидальным контентом действует другой сценарий – записи и фото на эту тему удаляются автоматически, страницы их авторов блокируют.
ОТР - Общественное Телевидение России
marketing@ptvr.ru
+7 499 755 30 50 доб. 3165
АНО «ОТВР»
1920
1080
Нейросеть "ВКонтакте" научили выявлять суицидальный контент
В социальной сети "ВКонтакте" начал работать "обученный" алгоритм, который присваивает картинкам специальный рейтинг, определяя, содержится ли в них противоправный или "опасный" контент, пишут "Известия". Алгоритм может распознавать на картинках объекты — людей, животных, растения. "Запрещенный" контент, который выявляет нейросеть, не попадает в поисковую выдачу и "умную" новостную ленту либо полностью блокируется. Также технология способна анализировать текстовые надписи на изображениях. Как рассказали в компании, нейросеть умеет определять предметы и сущности, изображенные на фото. Она отделяет на изображении человека от ребенка, понимает, где изображено растение, животное или символ "групп смерти". Нейросеть использует несколько тысяч классов, которые присваиваются фотографиям — от 0 до 1 по нескольким параметрам. Если алгоритм характеризует фото как "опасное", его направляют модераторам для проверки. "Умеренно опасные" фото пропадают из поисковой выдачи, в новостной ленте понижается их приоритет. Такой механизм позволяет остановить распространение спама, детской порнографии, мошенничества,  нелегальных услуг и другой противоправной деятельности. Для борьбы с суицидальным контентом действует другой сценарий – записи и фото на эту тему удаляются автоматически, страницы их авторов блокируют.
В социальной сети "ВКонтакте" начал работать "обученный" алгоритм, который присваивает картинкам специальный рейтинг, определяя, содержится ли в них противоправный или "опасный" контент, пишут "Известия". Алгоритм может распознавать на картинках объекты — людей, животных, растения. "Запрещенный" контент, который выявляет нейросеть, не попадает в поисковую выдачу и "умную" новостную ленту либо полностью блокируется. Также технология способна анализировать текстовые надписи на изображениях. Как рассказали в компании, нейросеть умеет определять предметы и сущности, изображенные на фото. Она отделяет на изображении человека от ребенка, понимает, где изображено растение, животное или символ "групп смерти". Нейросеть использует несколько тысяч классов, которые присваиваются фотографиям — от 0 до 1 по нескольким параметрам. Если алгоритм характеризует фото как "опасное", его направляют модераторам для проверки. "Умеренно опасные" фото пропадают из поисковой выдачи, в новостной ленте понижается их приоритет. Такой механизм позволяет остановить распространение спама, детской порнографии, мошенничества,  нелегальных услуг и другой противоправной деятельности. Для борьбы с суицидальным контентом действует другой сценарий – записи и фото на эту тему удаляются автоматически, страницы их авторов блокируют.