15 Февраля 2023 | 18:39

ИИ-чат-боты начали набирать обороты, а эксперты потянулись к тревожной кнопке

Аналитики ждут роста дезинформации, мошенничества в e-com и угроз конфиденциальности данных

Картинка ИИ-чат-боты начали набирать обороты, а эксперты потянулись к тревожной кнопке

Генеративный искусственный интеллект молниеносно распространился в 2023 г. Технологические гиганты США и Азии, такие как Microsoft, Google, Alibaba, Baidu и Tencent, быстро разработали планы по внедрению функций искусственного интеллекта (ИИ) в свои платформы. На фоне всеобщего энтузиазма к тревожной кнопке потянулись аналитики, задавшиеся вопросом: «Что будет, если ИИ попадет не в те руки?». Возможные риски в своем обзоре приводит издание Digiday. 

За последние несколько лет IT-компания McAfee и другие цифровые корпорации часто экспериментировали с искусственным интеллектом. Например, McAfee провела исследование, в котором использовала машинное обучение, чтобы проанализировать атаки искусственного интеллекта и понять, как нейросети обходят механизмы обнаружения. В компании уже отметили, что по мере развития эксперимента экспертам придется преосмысливать лучшие практики кибербезопасности 2022 г.

Развитие искусственного интеллекта бросает новые вызовы не только кибер-, но и информационной безопасности. Уже зафиксировано множество случаев, когда генераторы текста выдавали пользователям так называемые «галлюцинации» — неправильные ответы. Таким образом, считают аналитики, может распространяться как непреднамеренная, так и преднамеренная дезинформация. И платить за ошибки будут не только обманутые пользователи, но и корпорации. Неделю назад рыночная цена Google упала на $100 млрд после того, как в рекламном видео нового чат-бота Bard была представлена дезинформация.

Хотя платформы ИИ появились относительно недавно, они уже имеют широкое влияние. По оценкам аналитиков, аудитория ChatGPT в январе этого года достигла 100 млн активных пользователей в месяц. Такие компании, как OpenAI, уже работают над устранением различных проблем, но некоторые отмечают, что мошенники все еще могут использовать инструменты в злонамеренных целях. На прошлой неделе исследователи обнаружили, что хакеры уже нашли способ обойти ограничения на создание незаконного контента.

Директор по технологиям общественных интересов Electronic Frontier Foundation, некоммерческой организации по защите цифровых прав Джон Каллас отметил, что ИИ может стать угрозой для неприкосновенности частной жизни и прав интеллектуальной собственности, а также причиной разжигания ненависти. «Чат-боты учатся у людей, которые общаются с ними, и злоумышленники могут заставить их говорить неприятные вещи», — полагает эксперт. 

Также ИИ может создать новые проблемы для e-com, например сгенерировать поддельные отзывы или изображения. Но модерация контента была сложной задачей еще до появления генеративного ИИ и до сих пор требует включения в работу как людей, так и машин, отметил соучредитель и генеральный директор израильской фирмы по кибербезопасности CHEQ Гай Титунович. Тем не менее эксперт полагает, что остановить развитие искусственного интеллекта уже не получится. «Сухой закон не сработал 100 лет назад, — сказал Титунович. — И я думаю, что попытки остановить ИИ будут такими же бесполезными».

 

Рейтинги
Лидеры рейтингов AdIndex
# Компания Рейтинг
1 OMD Optimum Media №1 Медиабайеры 2023
2 MGCom №1 Digital Index 2023
3 Росст №1 Digital Index в Фармкатегории 2023
–ейтинг@Mail.ru
Этот сайт использует cookie-файлы и рекомендательные технологии. Оставаясь на сайте, вы даете согласие на использование cookie-файлов и соглашаетесь с правилами применения рекомендательных систем на сайте.