ru
en
ru
en
Запросить демо

Чат-боты в контексте соответствия требованиям конфиденциальности данных

Диана Гаджиева
Диана Гаджиева
Фев 14, 2023 | 12 мин на чтение

Конфиденциальность чат-ботов стала важным вопросом за последние несколько лет, обсуждаемым как в нашей стране, так и за рубежом. Большой интерес данный вопрос вызывает и в Европе, где он обсуждается в контексте Европейского общего регламента по защите данных (GDPR).

Возможности и риски

Conversational AI дает компаниям широкие возможности для сбора данных от клиентов и пользователей, что параллельно повышает риски в области конфиденциальности данных. Поэтому при планировании внедрения чат-ботов, в частности для продаж и маркетинга, нужно нивелировать возможные юридические риски.

Решением становится принятие соответствующих внутренних политик и тщательный выбор внешних агентств и поставщиков, предлагающих услуги по разработке и сопровождению чат-ботов.

Какие риски для конфиденциальности создает использование чат-бота?

  • Если для идентификации собеседника боту требуется большой объем персональных данных, это будет противоречить принципу минимизации данных GDPR («чем меньше вы спрашиваете, тем лучше»).

  • Профилирование клиентов — еще одна деятельность, вызывающая дискуссионные вопросы. Боту необходимо анализировать и объединять большие наборы персональных данных, что противоречит принципу ограничения конфиденциальности чат-бота.
  • Правило ограничения цели гласит, что персональные данные могут использоваться только для определенной цели. Это наложило жесткие ограничения на любое получение данных.
  • Другие ограничения связаны с запретом на сбор конфиденциальных личных данных (таких как этническая принадлежность, религия, здоровье) и обязательством прозрачной обработки данных.

Наконец, люди имеют право возражать против использования своих личных данных и могут потребовать их удаления. Соблюдение конфиденциальности чат-бота означает также защиту этих двух прав.

Ошибки чат-ботов в контексте конфиденциальности

Среди кейсов нарушения конфиденциальности и вопросов этичности в сфере ботов можно привести следующие примеры:

  • Чат-бот с искусственным интеллектом Amazon для набора персонала, который был признан гендерно предвзятым. Бот начал думать, что мужчины лучше женщин из-за большего количества мужских резюме, которые он получил.
  • Tay – чат-бот с искусственным интеллектом от Microsoft для общения с пользователями Twitter. К сожалению, Tay начал выражать расизм, ультраправые и нацистские взгляды.
  • Beauty – чат-бот с искусственным интеллектом, который должен был беспристрастно судить о красоте. Через некоторое время обнаружили, что Beauty AI не любит темные лица.

Вышеупомянутые случаи заставляют задуматься над проблемой невольно возникающей предвзятости искусственного интеллекта. Никто не хочет передавать конфиденциальные данные кому-то, у кого есть предубеждения против него. Таким образом, проблема конфиденциальности является общей как для людей, так и для ботов, особенно когда чат-боты совершают ошибки, которые иллюстрируются тремя приведенными выше примерами.

Снижение юридических рисков

Для соблюдения требований к защите конфиденциальных данных пользователей необходимо следовать определенным правилам:

  • Разработать внутренние политики и внутренние протоколы, чтобы установить разрешенный объем передачи данных через чат-ботов.
  • Определить:
  1. Какая информация собирается и как;
  2. Где информация отправляется и хранится;
  3. В каких целях обрабатывается информация.
  • Перед началом диалога с ботом получить у собеседника согласие на обработку персональных данных. Пример такого стартового сообщения, в которое включается гиперссылка на политику компании:

Отправляя сообщение, вы соглашаетесь на обработку персональных данных в соответствии с нашей политикой.

  • Включить ссылки на чат-бот в политику конфиденциальности на веб-сайте или в веб-приложении. Кроме того, можно включить некоторые превентивные функции в окно чат-бота, например, баннер, предупреждающий пользователей о том, что нельзя делиться с чат-ботом особыми категориями данных, или функцию, позволяющую пользователям удалять прошлые разговоры, содержащие конфиденциальные данные.

Требования к поставщикам чат-ботов

На стороне поставщика чат-бота выполняться следующие требования:

  1. Доступ к БД должен быть строго регламентирован;
  2. Регулярно делаются бекапы, доступ к которым также регламентирован;
  3. С сотрудниками, имеющими доступы, подписаны документы о неразглашении;
  4. Должна быть возможность управлять предоставляемыми данными найти и удалить персональные данные из аккаунта компании (настройки компании, сценарий чат-бота, история общения) в соответствии с разделом 25 GDPR.
  5. Должна быть возможность передать данные для обучения бота в деперсонализованном виде – скрипт для деперсонализации запускается на стороне заказчика, возможную "чувствительную" информацию удаляется и поставщику передается уже деперсонализированные диалоги.

Заключение

Таким образом, чат-боты предоставляют широкие возможности для развития бизнеса и маркетинговых стратегий, однако, в процессе не следует забывать о защите конфиденциальности пользователей и клиентом, с которыми будет взаимодействовать чат-бот.

FAQ (часто задаваемые вопросы)

1. Почему конфиденциальность чат-ботов стала важным вопросом?
Конфиденциальность чат-ботов стала актуальной темой в последние годы из-за увеличения сбора данных и обсуждений, касающихся защиты личной информации, особенно в контексте GDPR в Европе.

2. Какие возможности и риски связаны с использованием чат-ботов?
Чат-боты предоставляют возможность эффективно собирать данные от пользователей, но также увеличивают риски нарушения конфиденциальности, если не соблюдаются соответствующие меры безопасности и юридические требования.

3. Какие риски для конфиденциальности создает использование чат-бота?
Риски включают сбор избыточных данных, профилирование клиентов, нарушение принципа ограничения цели, запрет на сбор конфиденциальной информации и право пользователей на удаление своих данных.

4. Какие примеры ошибок чат-ботов в отношении конфиденциальности известны?
Известные примеры включают гендерную предвзятость чат-бота Amazon, расистские высказывания чат-бота Tay от Microsoft и предвзятость чат-бота Beauty AI, что подчеркивает проблемы, связанные с предвзятостью искусственного интеллекта.

5. Как снизить юридические риски при использовании чат-ботов?
Важно разработать внутренние политики, определить, какая информация собирается и как, получить согласие пользователей на обработку данных и включить ссылки на политику конфиденциальности в чат-бота.

6. Какие требования должны быть к поставщикам чат-ботов?
Поставщики должны обеспечивать строгий доступ к базе данных, регулярное создание резервных копий, подписывать соглашения о неразглашении с сотрудниками и предоставлять возможность управления персональными данными.

7. Как обеспечить соблюдение GDPR при использовании чат-ботов?
Необходимо следить за тем, чтобы собранные данные использовались только для определенных целей, минимизировать объем собираемой информации и предоставлять пользователям возможность управлять своими данными.

8. Как пользователи могут защитить свои данные при взаимодействии с чат-ботами?
Пользователи должны быть осторожны при предоставлении личной информации, проверять политику конфиденциальности и использовать функции удаления данных, если они доступны.

9. Почему важно учитывать предвзятость искусственного интеллекта в чат-ботах?
Предвзятость может привести к ошибкам в обработке данных и нарушению прав пользователей, что делает важным создание более справедливых и этичных алгоритмов для чат-ботов.

10. Как чат-боты могут помочь в бизнесе, не нарушая конфиденциальности?
Чат-боты могут эффективно взаимодействовать с клиентами, собирая данные для улучшения обслуживания, если соблюдаются соответствующие меры безопасности и конфиденциальности.

Chatme.ai
Ответим на ваши вопросы по чат-бот платформе chatme.ai
Задать вопрос
Диана Гаджиева
Диана Гаджиева
Юрист

Поделиться статьёй:

возможно вам будет интересно:

Оставьте контакты,
и мы свяжемся с вами для консультации