Голосовые ассистенты и сбор данных: тонкая грань между удобством и вторжением в личную жизнь
Умные технологии упрощают жизнь, одновременно вызывая опасения из-за потенциального вторжения в личное пространство. Как совместить удобство и неприкосновенность данных — рассказала Екатерина Тюхай, UX/UI Team Lead в технологической компании, куратор линейки курсов по UX/UI «Британской высшей школы дизайна»
Технологии таких ассистентов, как «Яндекс Алиса», «Маруся» от VK и «Салют» от «Сбер» ежедневно помогают миллионам людей, но часто это происходит за счет скрытого сбора личных данных пользователей. Маркетинговая компания CMG Local Solutions заявила, что, используя технологии, может прослушивать разговоры пользователей через смарт-колонки, голосовые помощники, умные часы и другие устройства с поддержкой голосового управления. Очевидно, что баланс между удобством таких технологий и защитой конфиденциальности данных пользователей нуждается в дальнейшем изучении и регулировании.
Чтобы узнать о рисках использования голосовых ассистентов и понять, как именно и на каком этапе происходит утечка данных, необходимо разобраться в принципе их функционирования.
Работа голосовых устройств — взгляд изнутри
Смартфоны и голосовые ассистенты работают на основе технологий обработки естественного языка и машинного обучения. Процесс состоит из следующих этапов:
- Захват звука. Высокочувствительный микрофон устройства улавливает звуковые колебания человеческой речи. Специальные микрофоны преобразуют акустический сигнал в цифровой формат.
- Распознавание речи. Нейронные сети разбивают звуковой сигнал на тысячи мелких фрагментов. Алгоритмы машинного обучения сравнивают их с эталонными образцами, что позволяет декодировать слова с учетом различных акцентов.
- Передача данных. Зашифрованный аудиофайл отправляется через защищенные интернет-каналы на серверы компании-разработчика. При этом используются специализированные протоколы безопасной передачи данных.
- Анализ контекста. Искусственный интеллект анализирует взаимосвязь слов, предыдущий опыт взаимодействия, личностные особенности пользователя, текущую ситуацию.
- Выполнение команды. Система выбирает действие на основе запроса, например: поиск информации, управление устройствами, составление расписания.
- Обратная связь. Технологии синтеза речи формируют ответ с естественной интонацией, адаптированный под конкретного пользователя.
Время, затраченное на работу этого сложного алгоритма обычно составляет не более доли секунды (это зависит от возможностей конкретной системы или устройства).
С какими рисками сбора данных сталкиваются пользователи
Первая потенциальная угроза возникает уже в момент захвата звукового сигнала, на этапе распознавания речи. Микрофоны устройств все время находятся в режиме ожидания. Это создает большие риски несанкционированного прослушивания.
Разработчики устройств хранят не только голосовые команды, но и полную историю взаимодействия пользователя с устройством. Это означает, что может произойти утечка:
-
полной истории голосовых запросов;
-
персональных предпочтений пользователя;
-
демографических данных;
-
геолокации;
-
информации о режиме дня.
Контекстный анализ также включает серьезные риски информационной утечки. Алгоритмы машинного обучения накапливают детальную информацию о пользователе: его интересах, привычках, эмоциональном состоянии. Недобросовестные сотрудники компаний или злоумышленники могут использовать эти данные в целях манипуляций, таргетированной рекламы или даже шантажа. Также синтезированная речь может быть перехвачена и клонирована, из-за этого возникает угроза биометрической идентификации.
Медицинские работники и специалисты других помогающих профессий рискуют случайно нарушить врачебную тайну или раскрыть конфиденциальность разговора с клиентом. На данный момент создатели бытовых голосовых ассистентов утверждают, что ничего не записывают и не хранят, однако, например, в одной крупной соцсети несколько лет назад существовала частная группа, где публиковались слитые записи с домашних устройств, содержащих в себе разговоры пользователей с голосовыми ассистентами. Прямого разрешения на запись авторы этих диалогов не давали, однако это может регулироваться «мелкими строчками в пользовательских соглашениях», галочки напротив которых многие проставляют, не читая.
Возникает принципиальный вопрос об ответственности за подобные технологические провалы. С учетом высокой вероятности случайных срабатываний устройств невозможно гарантировать, что конфиденциальная информация, которой вы доверительно поделились с близким человеком, не окажется в руках посторонних людей.
Применение голосовых устройств: стереотипы и этические вызовы
Развитие машинного обучения сопряжено с серьезными этическими вызовами. Искусственный интеллект учится на данных, которые он получает от людей. И если в них есть стереотипы, машина их просто копирует.
Такие стереотипы очень привлекательны для киберпреступников. Они могут создавать программы, чтобы незаметного манипулировать решениями и дискриминировать определенные группы людей. Например, можно разработать систему найма, которая автоматически будет отсеивать резюме женщин или людей с иностранными именами.
Предвзятые алгоритмы позволяют злоумышленникам легко взламывать системы и усиливать существующие социальные предрассудки. По сути, стереотипы становятся оружием в руках тех, кто хочет управлять общественным мнением и поведением людей. Единственный выход в таких ситуациях — постоянный этический контроль, прозрачность алгоритмов и диверсификация команд разработчиков.
Заключение
По мере развития искусственного интеллекта возникают все новые риски приватности, где каждое устройство потенциально становится источником утечки персональных данных. Технологический прогресс неизбежно ставит человека перед выбором: комфортная жизнь в цифровом пространстве или сохранение неприкосновенности личной информации. Решение лежит в плоскости этических аспектов при разработке устройств, жесткого законодательного регулирования, прозрачности алгоритмов сбора данных, усиления технологий защиты информации и повышения цифровой грамотности пользователей.
Для пользователей голосовых помощников будут актуальны следующие рекомендации по защите личных данных:
-
регулярно обновляйте программное обеспечение;
-
используйте двухэтапную аутентификацию (двумя разными способами подтверждайте что вы владелец);
-
максимально ограничьте доступ устройств к персональным данным:
-
отключайте микрофоны, если устройство не используется;
-
внимательно изучайте политику конфиденциальности производителей.
Несмотря на существующие этические риски, технологии голосовых ассистентов продолжают стремительно развиваться, становясь более безопасными и разумными. Главное — осознавать потенциальные угрозы и предпринимать посильные меры по защите собственных данных.
Алгоритмы начинают не просто имитировать сочувствие, но и генерировать контекстуально уместные реакции, учитывающие психоэмоциональные особенности собеседника. Это становится возможным через глубокий анализ больших массивов данных о принципах человеческих взаимодействий, где каждая эмоциональная реакция имеет несколько механизмов возникновения и проявления.
Парадокс современной технологической эмпатии заключается в том, что искусственный интеллект учится сопереживать через математические модели, трансформируя холодные алгоритмические конструкции в нечто, максимально приближенное к человеческому пониманию. Но, пока роботы не столь искусны в проявлении эмпатии к пользователям, поэтому могут допускать этические ошибки.
Например, не совсем понятно, что делать человеку с хроническим заболеванием, внешние проявления которого (судороги, учащенное дыхание и сердцебиение, суицидальные разговоры) считывает ИИ через механизм технологической эмпатии каждый день и, где та грань, когда вмешательство ИИ (вызов скорой, звонок родственнику) становится необходимым и, где та степень небезопасности пользователя, на которую ИИ должен реагировать безоговорочно? Эти и многие другие вопросы и решают сейчас люди, которые разрабатывают ИИ для медицинских учреждений и домашнего использования.