Превращенные в снаряды дроны, фейковые видео, манипулирующие общественным сознанием, и автоматизированный компьютерный взлом — вот три основные угрозы, которые, по мнению экспертов, исходят от искусственного интеллекта, попавшего в плохие руки.
Согласно опубликованному отчету «Вредоносное использование искусственного интеллекта», ИИ вполне может использоваться странами-изгоями, преступниками и террористами, передает BBC.
Те, кто производят робототехнику и системы искусственного интеллекта, должны прикладывать больше усилий к тому, чтобы их технология не была применена во вред, предупреждают авторы доклада и призывают правительства подумать о принятии новых законов.
- Политики и инженеры-разработчики должны совместно определить, каким именно может быть вредоносное использование ИИ и как это предотвратить
- Осознать, что в то время как ИИ имеет множество разнообразных применений, это обоюдоострая технология, поэтому ученые и разработчики должны это учитывать и упреждать возможное злонамеренное использование ИИ
- Перенять подход, который существует, к примеру, в сфере компьютерных технологий, где уже выработаны предохранительные меры против подобных рисков
- Активное расширение круга заинтересованных сторон, связанных с упреждением и смягчением рисков злонамеренного использования ИИ
Специалист Центра по изучению экзистенциальных рисков при Кембриджском университете Шахар Авин сказал Би-би-си, что в докладе основное внимание уделяется областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет, но нет взгляда в более отдаленную перспективу.
«Кардинальная перемена»
Особую тревогу вызывают новые методы обучения, применяемые к ИИ, когда робототехника доводится до уровня сверхчеловеческих интеллектуальных возможностей, но не имеет при этом ни примеров для подражания, ни руководства на человеческом уровне.
Авин обрисовал несколько сценариев, где ИИ может вдруг в ближайшем будущем «сорваться»:
- Такая программа, как AlphaGo — ИИ, разработанный компанией Google DeepMind, способный обыграть человека в игру го — может быть использована хакерами для нахождения шаблонов данных и уязвимости кодировки
- Некий отдельно взятый злоумышленник может купить дрон, оснастить его программой распознавания лиц и с помощью него напасть на какого-то конкретного человека
- Боты могут быть автоматизированы на производство фейковых видеоклипов с целью политических манипуляций
- Хакеры могут использовать синтезированную речь для того, чтобы выдать себя за кого-то
Майлз Брандидж, научный сотрудник Института будущего человечества Оксфордского университета, сказал по этому поводу следующее: «ИИ изменит существующие угрозы для отдельных граждан, организаций и государств — будь то на уровне преступников, которые настроят машины на взлом или фишинг информации у отдельных лиц, или же это будет внедрение в частную жизнь путем слежения, профилирования личности и дальнейших репрессий — полный спектр воздействия этого на безопасность огромен».
«Очень часто так бывает, что системы ИИ не просто достигают человеческого уровня производительности, но намного его превосходят. Это очень печально, однако необходимо рассмотреть те последствия, к которым могут привести сверхчеловеческого уровня хакерство, слежка, методы убеждения и распознавание физической цели, а также возможности ИИ, которые хоть и не достигают человеческого уровня, но тем не менее гораздо лучше варьируются, чем человеческий труд», — полагает ученый.
Шон О’Хэггерти, исполнительный директор Центра по изучению экзистенциальных рисков и один из соавторов доклада, добавляет: «Искусственный интеллект кардинально все меняет, и этот доклад размышляет над тем, как мир может измениться в следующие 5-10 лет. Мы живем в мире, который может быть подвержен ежедневной опасности злоупотребления ИИ, и мы должны начать заниматься этой проблемой, потому что эти риски вполне реальны».
«Выбор надо делать уже сейчас, и наш доклад — это призыв начать действовать правительствам, организациям и отдельным лицам по всему миру. В течение долгих десятилетий шумиха вокруг ИИ и его способностей опережала реальность. Но теперь это не так. Это доклад рассматривает существующие в мире подходы, которые больше не работают, и предлагает более широкомасштабный подход: например, как создать программное обеспечение и микропроцессоры, которые труднее было бы взломать, и какие в поддержку этому нужно принять законы и международные уложения».
100-страничный доклад определяет три сферы — цифровую, физическую и политическую, в которых злонамеренное использование ИИ наиболее вероятно.
В составлении доклада также участвовали некоммерческая исследовательская компания OpenAI, группа по управлению цифровыми правами Electronic Frontier Foundation и Центр новых подходов к охране безопасности США.