3 риска конфиденциальности чат-ботов, о которых вам следует знать

Чат-боты существуют уже много лет, но появление основных языковых моделей, таких как ChatGPT и Google Bard, дало индустрии чат-ботов новую жизнь.

Миллионы людей сейчас используют чат-ботов с искусственным интеллектом по всему миру, но есть некоторые важные риски и проблемы конфиденциальности, о которых следует помнить, если вы хотите попробовать один из этих инструментов.

1. Соберите данные

Большинство людей не используют чат-ботов только для того, чтобы поздороваться. Современные чат-боты предназначены для обработки сложных вопросов и запросов и ответов на них, при этом пользователи часто включают в свои подсказки большой объем информации. Даже если вы просто задаете простой вопрос, вам не хочется, чтобы он выходил за рамки разговора.

Согласно поддержке OpenAI, вы можете удалить журналы чата ChatGPT в любое время, и эти журналы будут окончательно удалены из систем OpenAI через 30 дней. Однако компания сохранит и проверит определенные журналы чата, если будет установлено, что они содержат вредный или неприемлемый контент.

Другой популярный чат-бот с искусственным интеллектом, Клод, также отслеживает ваши предыдущие разговоры. В центре поддержки Anthropic утверждают, что Клод отслеживает «ваши подсказки и результаты в продукте, чтобы обеспечить вам стабильное взаимодействие с продуктом с течением времени под вашим контролем». Вы можете удалить свои разговоры с Клодом, чтобы он забыл, что вы говорили, но это не значит, что Anthropic немедленно удалит ваши логи из своей системы.

Конечно, это приводит к вопросу: сохраняются ли ваши данные? Используют ли ваши данные ChatGPT или другие чат-боты?

Но на этом опасения не заканчиваются.

2. Кража данных

Как и любой онлайн-инструмент или платформа, чат-боты уязвимы для киберпреступников. Даже если чат-бот сделал все возможное для защиты своих пользователей и данных, всегда существует вероятность того, что опытный хакер найдет способ проникнуть в его внутренние системы.

Если определенная служба чат-бота хранит вашу конфиденциальную информацию, такую ​​как платежные реквизиты платной подписки, контактные данные или аналогичную информацию, эта информация может быть украдена и использована в случае кибератаки.

Это особенно актуально, если вы используете менее безопасный чат-бот, разработчик которого не вложил средства в адекватную защиту безопасности. Не только внутренние системы компании могут быть взломаны, но и ваша собственная учетная запись также подвергается риску взлома без предупреждения о входе или уровня аутентификации.

Теперь, когда чат-боты с искусственным интеллектом настолько популярны, киберпреступники, естественно, начали использовать эту отрасль для мошенничества. Поддельные веб-сайты и плагины ChatGPT стали серьезной проблемой с тех пор, как чат-боты OpenAI стали популярными в конце 2022 года, из-за чего люди попадают в мошеннические схемы и предоставляют личную информацию под видом законности. и надежный.

В марте 2023 года MUO сообщила о поддельном расширении ChatGPT Chrome, которое крадет учетные данные для входа в Facebook. Плагин может использовать бэкдор Facebook для взлома премиум-аккаунтов и кражи файлов cookie пользователей. Это лишь один пример множества поддельных сервисов ChatGPT, предназначенных для обмана ничего не подозревающих жертв.

3. Заражение вредоносным ПО

3 риска конфиденциальности чат-ботов, о которых вам следует знать. Изображение 1

Если вы используете сомнительного чат-бота, не осознавая этого, вы можете обнаружить, что чат-бот предоставляет вам ссылки на вредоносные веб-сайты. Возможно, чат-бот предупредил вас об отличной раздаче или предоставил источник одного из своих ответов. Если у оператора сервиса есть скрытые намерения, общей целью платформы может быть распространение вредоносного ПО и фишинга через вредоносные ссылки.

Кроме того, хакеры могут скомпрометировать законный сервис чат-ботов и использовать его для распространения вредоносного ПО. Если бы этот чат-бот был действительно человеком, тысячи или даже миллионы пользователей подверглись бы воздействию этого вредоносного ПО. Поддельные приложения ChatGPT даже появились в Apple App Store, поэтому лучше быть осторожными.

В общем, никогда не следует нажимать на ссылку, которую предоставляет чат-бот, прежде чем запустить ее через веб-сайт проверки ссылок. Это может показаться раздражающим, но лучше убедиться, что веб-сайт, на который вы перенаправлены, не имеет вредоносного дизайна.

Кроме того, вам никогда не следует устанавливать какие-либо плагины и расширения для чат-ботов без предварительной проверки их легитимности. Проведите небольшое исследование приложения, чтобы узнать, есть ли у него хорошие отзывы, и найдите разработчика приложения, чтобы узнать, сможете ли вы найти что-нибудь сомнительное.

В приведенной выше статье вы познакомились с «3 рисками конфиденциальности чат-ботов, о которых вам следует знать». СоветыНадейтесь, что эта статья вам поможет! Если эта статья кажется вам интересной и полезной, не забудьте поделиться ею. Спасибо!

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *