Эксперт рассказал об опасности использования ChatGPT
Руководитель направления анализа защищенности компании Уральского центра систем безопасности Сергей Краснов рассказал в беседе с «360» об опасностях использования ChatGPT. Разработчики этого чат-бота взяли за основу языковую модель GPT-3.5. Он может отвечать на вопросы, составлять отчеты и таблицы, писать стихи и генерировать тексты. Однако, как считает эксперт, этим могут воспользоваться и мошенники. Одна из потенциальных угроз - распространение фейковых новостей, провокационных сообщений и рекламы. При помощи чата можно создавать правдоподобные тексты и обманывать пользователей, а также генерировать фейковые отзывы на свои товары. «Чат-бот также может быть использован для создания текстов, которые содержат оскорбления, травлю, нападки на личность, угрозы, шантаж и другие формы насилия», — рассказал Краснов. Также через чат можно создать фишинговые письма или сообщения и получить персональные данные и данные банковских карт. Порой чат-бот используют для распространения контента без разрешения правообладателя. Краснов рекомендовал пользователям соблюдать правила цифровой гигиены - перепроверять информацию, использовать разные пароли в сервисах, подключать двухфакторную аутентификацию и т.д.
ОТР - Общественное Телевидение России
marketing@ptvr.ru
+7 499 755 30 50 доб. 3165
АНО «ОТВР»
1920
1080
Эксперт рассказал об опасности использования ChatGPT
Руководитель направления анализа защищенности компании Уральского центра систем безопасности Сергей Краснов рассказал в беседе с «360» об опасностях использования ChatGPT. Разработчики этого чат-бота взяли за основу языковую модель GPT-3.5. Он может отвечать на вопросы, составлять отчеты и таблицы, писать стихи и генерировать тексты. Однако, как считает эксперт, этим могут воспользоваться и мошенники. Одна из потенциальных угроз - распространение фейковых новостей, провокационных сообщений и рекламы. При помощи чата можно создавать правдоподобные тексты и обманывать пользователей, а также генерировать фейковые отзывы на свои товары. «Чат-бот также может быть использован для создания текстов, которые содержат оскорбления, травлю, нападки на личность, угрозы, шантаж и другие формы насилия», — рассказал Краснов. Также через чат можно создать фишинговые письма или сообщения и получить персональные данные и данные банковских карт. Порой чат-бот используют для распространения контента без разрешения правообладателя. Краснов рекомендовал пользователям соблюдать правила цифровой гигиены - перепроверять информацию, использовать разные пароли в сервисах, подключать двухфакторную аутентификацию и т.д.
Руководитель направления анализа защищенности компании Уральского центра систем безопасности Сергей Краснов рассказал в беседе с «360» об опасностях использования ChatGPT. Разработчики этого чат-бота взяли за основу языковую модель GPT-3.5. Он может отвечать на вопросы, составлять отчеты и таблицы, писать стихи и генерировать тексты. Однако, как считает эксперт, этим могут воспользоваться и мошенники. Одна из потенциальных угроз - распространение фейковых новостей, провокационных сообщений и рекламы. При помощи чата можно создавать правдоподобные тексты и обманывать пользователей, а также генерировать фейковые отзывы на свои товары. «Чат-бот также может быть использован для создания текстов, которые содержат оскорбления, травлю, нападки на личность, угрозы, шантаж и другие формы насилия», — рассказал Краснов. Также через чат можно создать фишинговые письма или сообщения и получить персональные данные и данные банковских карт. Порой чат-бот используют для распространения контента без разрешения правообладателя. Краснов рекомендовал пользователям соблюдать правила цифровой гигиены - перепроверять информацию, использовать разные пароли в сервисах, подключать двухфакторную аутентификацию и т.д.