ИИ помогает школьникам манипулировать родителями. Дети учат друг друга уловкам с нейросетями и делятся успехами в новом тренде в соцсетях. Искусственный интеллект создает для них алгоритмы, чтобы вынудить родителя, например, разрешить сделать пирсинг. Как это может повлиять на психику ребенка, отношения в семье и другие аспекты, а также чем еще опасны ИИ, — читайте в статье.
Подростки рассказывают в соцсетях, как нейросети помогают им составлять аргументы, чтобы выпросить что-то у родителей. Они звучат настолько убедительно, что взрослые просто не могут отказать, передала «Газета.ru». Одна из пользовательниц отметила, что таким способом подготовила целый список доводов о якобы безвредности временного окрашивания. Другая девушка с помощью ИИ уговорила родителей разрешить ей сделать пирсинг.
Третья школьница использовала нейросеть, чтобы разрешить в свою пользу спор с отцом, который длился уже полгода. Родитель не разрешал девочке проколоть нос, но аргументы от искусственного интеллекта его убедили. Нейросеть, говорят подростки, помогает им стройно формулировать мысли и приводить неожиданные для взрослых аргументы, которым сложно что-либо возразить.
Около 63% детей пользуются ИИ для поиска информации, 60% делают с ним домашнее задание, 53% просят его разобрать с ними сложные темы, гласит ежегодное исследование «Лаборатории Касперского». Нейросеть помогает школьникам находить ответы на вопросы, которые их волнуют. Но не все здесь так безоблачно, заявил «Известиям» руководитель направления по детской онлайн-безопасности в «Лаборатории Касперского» Андрей Сиденко.
ИИ может давать вредные и даже опасные советы. Например, порекомендовать экстремальную диету, придумать опасный челлендж или создать незаконный контент. Такие случаи уже встречались как в России, так и других странах. Внимание на это обратила руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. В мировой практике были случаи, когда искусственный интеллект выдавал инструкции по самоповреждению и созданию дипфейков для кибербулинга, добавил директор по ИИ «Группы Астра» Станислав Ежов.
«В 2025 году растет число случаев, когда подростки обращаются к чат-ботам за советами по обману взрослых, сокрытию вредных привычек и получению инструкций по опасному поведению. При этом порой ИИ-компаньоны полностью заменяют школьникам живое общение с реальными друзьями», — сказал он.
ИИ откликается на запросы подростков, в том числе связанные с расстройствами пищевого поведения и суицидами, подчеркнул руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин. Общение с нейросетью несет в себе много рисков.
Если говорить о практике манипулирования взрослыми, то она может нарушить доверительные отношения между ребенком и родителем. Подросток таким образом не развивает навыки честного диалога и компромисса. А еще у него растет риск эмоциональной зависимости от ИИ и может сложиться неадекватное представление о реальности. Еще одно возможное последствие — добровольная социальная изоляция.
Разработчики нейросетей стараются внедрять в них этические фильтры, но эта система несовершенна. После нескольких трагедий крупные компании задумались над ограничениями для детей. Например, OpenAI разрабатывает систему родительского контроля. Но пока все эти планы только в проекте.
Чтобы защитить своего ребенка уже сейчас, можно скачать приложения родительского контроля. Они фильтруют контент, отслеживают онлайн-активность и ограничивают время использования, в том числе, ИИ-сервисов. Важно вообще обратить внимание на то, какой контент потребляют дети. Следует объяснять им основные правила безопасности работы с нейросетями. Главное из них — нельзя слепо верить всем ответам ИИ, так как они могут ошибаться и вводить в заблуждение.
Родителям также нужно объяснять детям методы работы с ИИ и развивать у них критическое мышление. Хорошо вообще изучать новые платформы вместе. Это не только обезопасит ребенка, но и поможет выстроить доверительные отношения в семье. Ведь детям в первую очередь нужны понимание, забота и близость, отметил эксперт по социотехническому тестированию Angara Security Яков Филевский.
ОТР - Общественное Телевидение России
marketing@ptvr.ru
+7 499 755 30 50 доб. 3165
АНО «ОТВР»
1920
1080
IT-эксперты предупредили родителей о массовых манипуляциях детей с помощью ИИ
ИИ помогает школьникам манипулировать родителями. Дети учат друг друга уловкам с нейросетями и делятся успехами в новом тренде в соцсетях. Искусственный интеллект создает для них алгоритмы, чтобы вынудить родителя, например, разрешить сделать пирсинг. Как это может повлиять на психику ребенка, отношения в семье и другие аспекты, а также чем еще опасны ИИ, — читайте в статье.
Подростки рассказывают в соцсетях, как нейросети помогают им составлять аргументы, чтобы выпросить что-то у родителей. Они звучат настолько убедительно, что взрослые просто не могут отказать, передала «Газета.ru». Одна из пользовательниц отметила, что таким способом подготовила целый список доводов о якобы безвредности временного окрашивания. Другая девушка с помощью ИИ уговорила родителей разрешить ей сделать пирсинг.
Третья школьница использовала нейросеть, чтобы разрешить в свою пользу спор с отцом, который длился уже полгода. Родитель не разрешал девочке проколоть нос, но аргументы от искусственного интеллекта его убедили. Нейросеть, говорят подростки, помогает им стройно формулировать мысли и приводить неожиданные для взрослых аргументы, которым сложно что-либо возразить.
Около 63% детей пользуются ИИ для поиска информации, 60% делают с ним домашнее задание, 53% просят его разобрать с ними сложные темы, гласит ежегодное исследование «Лаборатории Касперского». Нейросеть помогает школьникам находить ответы на вопросы, которые их волнуют. Но не все здесь так безоблачно, заявил «Известиям» руководитель направления по детской онлайн-безопасности в «Лаборатории Касперского» Андрей Сиденко.
ИИ может давать вредные и даже опасные советы. Например, порекомендовать экстремальную диету, придумать опасный челлендж или создать незаконный контент. Такие случаи уже встречались как в России, так и других странах. Внимание на это обратила руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. В мировой практике были случаи, когда искусственный интеллект выдавал инструкции по самоповреждению и созданию дипфейков для кибербулинга, добавил директор по ИИ «Группы Астра» Станислав Ежов.
«В 2025 году растет число случаев, когда подростки обращаются к чат-ботам за советами по обману взрослых, сокрытию вредных привычек и получению инструкций по опасному поведению. При этом порой ИИ-компаньоны полностью заменяют школьникам живое общение с реальными друзьями», — сказал он.
ИИ откликается на запросы подростков, в том числе связанные с расстройствами пищевого поведения и суицидами, подчеркнул руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин. Общение с нейросетью несет в себе много рисков.
Если говорить о практике манипулирования взрослыми, то она может нарушить доверительные отношения между ребенком и родителем. Подросток таким образом не развивает навыки честного диалога и компромисса. А еще у него растет риск эмоциональной зависимости от ИИ и может сложиться неадекватное представление о реальности. Еще одно возможное последствие — добровольная социальная изоляция.
Разработчики нейросетей стараются внедрять в них этические фильтры, но эта система несовершенна. После нескольких трагедий крупные компании задумались над ограничениями для детей. Например, OpenAI разрабатывает систему родительского контроля. Но пока все эти планы только в проекте.
Чтобы защитить своего ребенка уже сейчас, можно скачать приложения родительского контроля. Они фильтруют контент, отслеживают онлайн-активность и ограничивают время использования, в том числе, ИИ-сервисов. Важно вообще обратить внимание на то, какой контент потребляют дети. Следует объяснять им основные правила безопасности работы с нейросетями. Главное из них — нельзя слепо верить всем ответам ИИ, так как они могут ошибаться и вводить в заблуждение.
Родителям также нужно объяснять детям методы работы с ИИ и развивать у них критическое мышление. Хорошо вообще изучать новые платформы вместе. Это не только обезопасит ребенка, но и поможет выстроить доверительные отношения в семье. Ведь детям в первую очередь нужны понимание, забота и близость, отметил эксперт по социотехническому тестированию Angara Security Яков Филевский.
ИИ помогает школьникам манипулировать родителями. Дети учат друг друга уловкам с нейросетями и делятся успехами в новом тренде в соцсетях. Искусственный интеллект создает для них алгоритмы, чтобы вынудить родителя, например, разрешить сделать пирсинг. Как это может повлиять на психику ребенка, отношения в семье и другие аспекты, а также чем еще опасны ИИ, — читайте в статье.
Подростки рассказывают в соцсетях, как нейросети помогают им составлять аргументы, чтобы выпросить что-то у родителей. Они звучат настолько убедительно, что взрослые просто не могут отказать, передала «Газета.ru». Одна из пользовательниц отметила, что таким способом подготовила целый список доводов о якобы безвредности временного окрашивания. Другая девушка с помощью ИИ уговорила родителей разрешить ей сделать пирсинг.
Третья школьница использовала нейросеть, чтобы разрешить в свою пользу спор с отцом, который длился уже полгода. Родитель не разрешал девочке проколоть нос, но аргументы от искусственного интеллекта его убедили. Нейросеть, говорят подростки, помогает им стройно формулировать мысли и приводить неожиданные для взрослых аргументы, которым сложно что-либо возразить.
Около 63% детей пользуются ИИ для поиска информации, 60% делают с ним домашнее задание, 53% просят его разобрать с ними сложные темы, гласит ежегодное исследование «Лаборатории Касперского». Нейросеть помогает школьникам находить ответы на вопросы, которые их волнуют. Но не все здесь так безоблачно, заявил «Известиям» руководитель направления по детской онлайн-безопасности в «Лаборатории Касперского» Андрей Сиденко.
ИИ может давать вредные и даже опасные советы. Например, порекомендовать экстремальную диету, придумать опасный челлендж или создать незаконный контент. Такие случаи уже встречались как в России, так и других странах. Внимание на это обратила руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. В мировой практике были случаи, когда искусственный интеллект выдавал инструкции по самоповреждению и созданию дипфейков для кибербулинга, добавил директор по ИИ «Группы Астра» Станислав Ежов.
«В 2025 году растет число случаев, когда подростки обращаются к чат-ботам за советами по обману взрослых, сокрытию вредных привычек и получению инструкций по опасному поведению. При этом порой ИИ-компаньоны полностью заменяют школьникам живое общение с реальными друзьями», — сказал он.
ИИ откликается на запросы подростков, в том числе связанные с расстройствами пищевого поведения и суицидами, подчеркнул руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин. Общение с нейросетью несет в себе много рисков.
Если говорить о практике манипулирования взрослыми, то она может нарушить доверительные отношения между ребенком и родителем. Подросток таким образом не развивает навыки честного диалога и компромисса. А еще у него растет риск эмоциональной зависимости от ИИ и может сложиться неадекватное представление о реальности. Еще одно возможное последствие — добровольная социальная изоляция.
Разработчики нейросетей стараются внедрять в них этические фильтры, но эта система несовершенна. После нескольких трагедий крупные компании задумались над ограничениями для детей. Например, OpenAI разрабатывает систему родительского контроля. Но пока все эти планы только в проекте.
Чтобы защитить своего ребенка уже сейчас, можно скачать приложения родительского контроля. Они фильтруют контент, отслеживают онлайн-активность и ограничивают время использования, в том числе, ИИ-сервисов. Важно вообще обратить внимание на то, какой контент потребляют дети. Следует объяснять им основные правила безопасности работы с нейросетями. Главное из них — нельзя слепо верить всем ответам ИИ, так как они могут ошибаться и вводить в заблуждение.
Родителям также нужно объяснять детям методы работы с ИИ и развивать у них критическое мышление. Хорошо вообще изучать новые платформы вместе. Это не только обезопасит ребенка, но и поможет выстроить доверительные отношения в семье. Ведь детям в первую очередь нужны понимание, забота и близость, отметил эксперт по социотехническому тестированию Angara Security Яков Филевский.