Аналитик: алгоритмы соцсетей могут быть опасны из-за некорректных рекомендаций
Персональные рекомендации в социальных сетях могут быть опасны и даже приводить к смерти. По вине таких технологий уже погибла 10-летняя девочка из США. Какие неочевидные угрозы исходят от автоматической системы подбора контента и что можно с ними сделать, разбирался ОТР. Девочка погибла из-за неудачной попытки повторить опасный челлендж, видео с которым попалось ей в рекомендациях соцсети TikTok. После этого Федеральный апелляционный суд США постановил, что технологические компании могут нести ответственность за контент, который советуют алгоритмы. Это первый раз, когда такой иск приняли. Раньше их отклоняли из-за закона о добропорядочности коммуникаций, сообщили «Известия». Норма защищала платформы от ответственности за контент, который публикуют пользователи. Но суд обратил внимание, что сайты активно рекомендует материалы через алгоритмы, а значит, они уже не являются нейтральными посредниками. Такое решение способно изменить правила игры во всей индустрии социальных медиа. Теперь есть прецедент, и суды могут наводнить иски против разных платформ. Вполне возможно, что и механизмы работы соцсетей и других ресурсов изменятся. Сейчас рекомендации работают на основе истории взаимодействия пользователя с платформой. Чтобы предоставить человеку интересный для него контент, алгоритмы собирают информацию о действиях и его персональные данные, объяснил глава группы испытательной лаборатории Лиги цифровой экономики Дмитрий Саков. Каждая платформа использует уникальный алгоритм, поэтому трудно сказать, какую информацию собирает тот или иной сервис. Но есть и базовые данные: дата рождения, пол, место нахождения, рассказал ОТР руководитель аналитического центра Zecurion Владимир Ульянов. «Этого уже достаточно для того, чтобы сложить какой-то базовый шаблон, по которому можно начать показывать [рекомендации]. Любой алгоритм начинает обучаться с учетом того, что пользователь посмотрел, как он реагирует на контент», — отметил эксперт. Алгоритмы определяют, какие материалы заинтересовали человека больше, и обучаются на этой информации. Дальше пользователю начинают чаще предлагать то, что может ему понравиться. Например, развлекательные ролики, мультики, образовательные видео и так далее. Система учитывает, кликнул ли человек на контент, сколько времени на него потратил, досмотрел ли до конца. Алгоритм следит и за тем, пересматривал ли пользователь видео. Если да, то какие именно моменты заставили его вернуться. Платформы отличаются тем, что придают разное значение информации о человеке. Одним важен возраст и география, другим — пол и какая-то определенная группа интересов, пояснил Ульянов. Алгоритмы могут стать опасными, если по ошибке выдают некорректные рекомендации. Однако трудно винить в этом сами системы, так как в большинстве случаев они работают эффективно, подчеркнул собеседник ОТР. «За какой-то конкретный алгоритм конкретного сервиса сложно поручиться. Для пользователей алгоритм выступает в качестве черного ящика. Мы не понимаем, как именно он работает. Только люди, которые его разрабатывают и периодически подкручивают, могут достоверно сказать [об этом]», — добавил специалист. Опасность может быть не в самом контенте, а реакции психики на него. Речь идет о случаях, когда алгоритмы случайно выдают ролики с жесткими сценами или нечто рискованное для жизни, как и в истории с девочкой из США. Ведь в ней есть человеческий фактор, обратил внимание Владимир Ульянов. «Есть люди, которые не будут повторять челленджи. Они, условно говоря, понимают, что такое “хорошо”, а что такое “плохо”. А есть люди, для которых, наоборот, это вызов. И не всегда понятно, как человек отреагирует», — выразил мнение аналитик. Теоретически информацию об интересах и личностях пользователей, которую собирают алгоритмы, могут использовать во вред. Но не сами платформы, а те, кто доберется до этих данных. Они могут дополнить профиль человека и помочь сделать атаку на него более персонализированной, предупредил Ульянов. Собеседник ОТР считает, что нужно работать с людьми и учить их адекватно реагировать на раздражители. Это касается не только социальных сетей, но и жизни в целом. Возможно, в каких-то ситуациях алгоритмы даже помогают людям.  «Представьте, что этот же самый алгоритм благодаря тому, что он точно понимает, что надо человеку, не показывает ему нежелательный контент. Он спас 10 жизней, но один человек отреагировал неадекватно. Но, может, это и не вина алгоритма, а особенности психики или внешние раздражители, которые спровоцировали его на повторение [челленджа]», — продолжил эксперт. Вопрос ответственности платформ за рекомендации довольно спорный. Возможно, она должна быть, но ограниченная, считает Ульянов. Нельзя вешать все проблемы исключительно на алгоритм. Есть еще и юридические нюансы: выбирая сервис, пользователь делает это добровольно, и может отказать от него, если система не устраивает. Владимир Ульянов сравнил платформы с газовой службой. С одной стороны, она отвечает за газовое оборудование, но с другой, не ее вина, если человек халатно к нему относится. У газовщиков ограниченная ответственность, и здесь должно быть так же, подытожил эксперт.
ОТР - Общественное Телевидение России
marketing@ptvr.ru
+7 499 755 30 50 доб. 3165
АНО «ОТВР»
1920
1080
Аналитик: алгоритмы соцсетей могут быть опасны из-за некорректных рекомендаций
Персональные рекомендации в социальных сетях могут быть опасны и даже приводить к смерти. По вине таких технологий уже погибла 10-летняя девочка из США. Какие неочевидные угрозы исходят от автоматической системы подбора контента и что можно с ними сделать, разбирался ОТР. Девочка погибла из-за неудачной попытки повторить опасный челлендж, видео с которым попалось ей в рекомендациях соцсети TikTok. После этого Федеральный апелляционный суд США постановил, что технологические компании могут нести ответственность за контент, который советуют алгоритмы. Это первый раз, когда такой иск приняли. Раньше их отклоняли из-за закона о добропорядочности коммуникаций, сообщили «Известия». Норма защищала платформы от ответственности за контент, который публикуют пользователи. Но суд обратил внимание, что сайты активно рекомендует материалы через алгоритмы, а значит, они уже не являются нейтральными посредниками. Такое решение способно изменить правила игры во всей индустрии социальных медиа. Теперь есть прецедент, и суды могут наводнить иски против разных платформ. Вполне возможно, что и механизмы работы соцсетей и других ресурсов изменятся. Сейчас рекомендации работают на основе истории взаимодействия пользователя с платформой. Чтобы предоставить человеку интересный для него контент, алгоритмы собирают информацию о действиях и его персональные данные, объяснил глава группы испытательной лаборатории Лиги цифровой экономики Дмитрий Саков. Каждая платформа использует уникальный алгоритм, поэтому трудно сказать, какую информацию собирает тот или иной сервис. Но есть и базовые данные: дата рождения, пол, место нахождения, рассказал ОТР руководитель аналитического центра Zecurion Владимир Ульянов. «Этого уже достаточно для того, чтобы сложить какой-то базовый шаблон, по которому можно начать показывать [рекомендации]. Любой алгоритм начинает обучаться с учетом того, что пользователь посмотрел, как он реагирует на контент», — отметил эксперт. Алгоритмы определяют, какие материалы заинтересовали человека больше, и обучаются на этой информации. Дальше пользователю начинают чаще предлагать то, что может ему понравиться. Например, развлекательные ролики, мультики, образовательные видео и так далее. Система учитывает, кликнул ли человек на контент, сколько времени на него потратил, досмотрел ли до конца. Алгоритм следит и за тем, пересматривал ли пользователь видео. Если да, то какие именно моменты заставили его вернуться. Платформы отличаются тем, что придают разное значение информации о человеке. Одним важен возраст и география, другим — пол и какая-то определенная группа интересов, пояснил Ульянов. Алгоритмы могут стать опасными, если по ошибке выдают некорректные рекомендации. Однако трудно винить в этом сами системы, так как в большинстве случаев они работают эффективно, подчеркнул собеседник ОТР. «За какой-то конкретный алгоритм конкретного сервиса сложно поручиться. Для пользователей алгоритм выступает в качестве черного ящика. Мы не понимаем, как именно он работает. Только люди, которые его разрабатывают и периодически подкручивают, могут достоверно сказать [об этом]», — добавил специалист. Опасность может быть не в самом контенте, а реакции психики на него. Речь идет о случаях, когда алгоритмы случайно выдают ролики с жесткими сценами или нечто рискованное для жизни, как и в истории с девочкой из США. Ведь в ней есть человеческий фактор, обратил внимание Владимир Ульянов. «Есть люди, которые не будут повторять челленджи. Они, условно говоря, понимают, что такое “хорошо”, а что такое “плохо”. А есть люди, для которых, наоборот, это вызов. И не всегда понятно, как человек отреагирует», — выразил мнение аналитик. Теоретически информацию об интересах и личностях пользователей, которую собирают алгоритмы, могут использовать во вред. Но не сами платформы, а те, кто доберется до этих данных. Они могут дополнить профиль человека и помочь сделать атаку на него более персонализированной, предупредил Ульянов. Собеседник ОТР считает, что нужно работать с людьми и учить их адекватно реагировать на раздражители. Это касается не только социальных сетей, но и жизни в целом. Возможно, в каких-то ситуациях алгоритмы даже помогают людям.  «Представьте, что этот же самый алгоритм благодаря тому, что он точно понимает, что надо человеку, не показывает ему нежелательный контент. Он спас 10 жизней, но один человек отреагировал неадекватно. Но, может, это и не вина алгоритма, а особенности психики или внешние раздражители, которые спровоцировали его на повторение [челленджа]», — продолжил эксперт. Вопрос ответственности платформ за рекомендации довольно спорный. Возможно, она должна быть, но ограниченная, считает Ульянов. Нельзя вешать все проблемы исключительно на алгоритм. Есть еще и юридические нюансы: выбирая сервис, пользователь делает это добровольно, и может отказать от него, если система не устраивает. Владимир Ульянов сравнил платформы с газовой службой. С одной стороны, она отвечает за газовое оборудование, но с другой, не ее вина, если человек халатно к нему относится. У газовщиков ограниченная ответственность, и здесь должно быть так же, подытожил эксперт.
Персональные рекомендации в социальных сетях могут быть опасны и даже приводить к смерти. По вине таких технологий уже погибла 10-летняя девочка из США. Какие неочевидные угрозы исходят от автоматической системы подбора контента и что можно с ними сделать, разбирался ОТР. Девочка погибла из-за неудачной попытки повторить опасный челлендж, видео с которым попалось ей в рекомендациях соцсети TikTok. После этого Федеральный апелляционный суд США постановил, что технологические компании могут нести ответственность за контент, который советуют алгоритмы. Это первый раз, когда такой иск приняли. Раньше их отклоняли из-за закона о добропорядочности коммуникаций, сообщили «Известия». Норма защищала платформы от ответственности за контент, который публикуют пользователи. Но суд обратил внимание, что сайты активно рекомендует материалы через алгоритмы, а значит, они уже не являются нейтральными посредниками. Такое решение способно изменить правила игры во всей индустрии социальных медиа. Теперь есть прецедент, и суды могут наводнить иски против разных платформ. Вполне возможно, что и механизмы работы соцсетей и других ресурсов изменятся. Сейчас рекомендации работают на основе истории взаимодействия пользователя с платформой. Чтобы предоставить человеку интересный для него контент, алгоритмы собирают информацию о действиях и его персональные данные, объяснил глава группы испытательной лаборатории Лиги цифровой экономики Дмитрий Саков. Каждая платформа использует уникальный алгоритм, поэтому трудно сказать, какую информацию собирает тот или иной сервис. Но есть и базовые данные: дата рождения, пол, место нахождения, рассказал ОТР руководитель аналитического центра Zecurion Владимир Ульянов. «Этого уже достаточно для того, чтобы сложить какой-то базовый шаблон, по которому можно начать показывать [рекомендации]. Любой алгоритм начинает обучаться с учетом того, что пользователь посмотрел, как он реагирует на контент», — отметил эксперт. Алгоритмы определяют, какие материалы заинтересовали человека больше, и обучаются на этой информации. Дальше пользователю начинают чаще предлагать то, что может ему понравиться. Например, развлекательные ролики, мультики, образовательные видео и так далее. Система учитывает, кликнул ли человек на контент, сколько времени на него потратил, досмотрел ли до конца. Алгоритм следит и за тем, пересматривал ли пользователь видео. Если да, то какие именно моменты заставили его вернуться. Платформы отличаются тем, что придают разное значение информации о человеке. Одним важен возраст и география, другим — пол и какая-то определенная группа интересов, пояснил Ульянов. Алгоритмы могут стать опасными, если по ошибке выдают некорректные рекомендации. Однако трудно винить в этом сами системы, так как в большинстве случаев они работают эффективно, подчеркнул собеседник ОТР. «За какой-то конкретный алгоритм конкретного сервиса сложно поручиться. Для пользователей алгоритм выступает в качестве черного ящика. Мы не понимаем, как именно он работает. Только люди, которые его разрабатывают и периодически подкручивают, могут достоверно сказать [об этом]», — добавил специалист. Опасность может быть не в самом контенте, а реакции психики на него. Речь идет о случаях, когда алгоритмы случайно выдают ролики с жесткими сценами или нечто рискованное для жизни, как и в истории с девочкой из США. Ведь в ней есть человеческий фактор, обратил внимание Владимир Ульянов. «Есть люди, которые не будут повторять челленджи. Они, условно говоря, понимают, что такое “хорошо”, а что такое “плохо”. А есть люди, для которых, наоборот, это вызов. И не всегда понятно, как человек отреагирует», — выразил мнение аналитик. Теоретически информацию об интересах и личностях пользователей, которую собирают алгоритмы, могут использовать во вред. Но не сами платформы, а те, кто доберется до этих данных. Они могут дополнить профиль человека и помочь сделать атаку на него более персонализированной, предупредил Ульянов. Собеседник ОТР считает, что нужно работать с людьми и учить их адекватно реагировать на раздражители. Это касается не только социальных сетей, но и жизни в целом. Возможно, в каких-то ситуациях алгоритмы даже помогают людям.  «Представьте, что этот же самый алгоритм благодаря тому, что он точно понимает, что надо человеку, не показывает ему нежелательный контент. Он спас 10 жизней, но один человек отреагировал неадекватно. Но, может, это и не вина алгоритма, а особенности психики или внешние раздражители, которые спровоцировали его на повторение [челленджа]», — продолжил эксперт. Вопрос ответственности платформ за рекомендации довольно спорный. Возможно, она должна быть, но ограниченная, считает Ульянов. Нельзя вешать все проблемы исключительно на алгоритм. Есть еще и юридические нюансы: выбирая сервис, пользователь делает это добровольно, и может отказать от него, если система не устраивает. Владимир Ульянов сравнил платформы с газовой службой. С одной стороны, она отвечает за газовое оборудование, но с другой, не ее вина, если человек халатно к нему относится. У газовщиков ограниченная ответственность, и здесь должно быть так же, подытожил эксперт.