Искусственный интеллект научили проявлять агрессию ради выгоды

Принадлежащий Google стартап DeepMind изучил, как алгоритмы взаимодействуют друг с другом. Искусственный интеллект в очередной раз доказал свою изобретательность: в некоторых ситуациях алгоритмы координировали свои действия, но при необходимости становились агрессивными ради выгоды.

Группа исследователей из DeepMind изучила способность алгоритмов к социализации на примере примитивных видеоигр. В смоделированной ситуации участники выигрывают, если ведут себя эгоистично, однако если все участники будут преследовать исключительно свои интересы, то никто не сможет выиграть.

Например, в игре Gathering участники собирают яблоки из одной кучи. Игроки могут использовать лазер, чтобы временно обезвредить противника и собрать больше яблок.

Во второй игре Wolfpack два игрока преследуют третьего на территории с большим количеством препятствий. Очки получают все игроки, которые находятся рядом с «добычей», а не только тот, кто ее поймает.

Исследование DeepMind показало, что искусственный интеллект адаптирует свое поведение к ситуации. К примеру, в Gathering при большом количестве яблок алгоритмы не использовали лазеры, но если фруктов в куче оказывалось слишком мало, то лазерная битва становилась ожесточенной. Когда же в игре участвовал более мощный алгоритм, то он использовал «оружие» независимо от количества яблок в куче. Таким образом более развитый ИИ предпочел быть агрессивным во всех ситуациях.

Ученые объяснили такое поведение не скрытой тягой продвинутого ИИ к убийству себе подобных, а его вычислительной мощью. Чем мощнее система, тем больше задач она выполняет. В данном случае использование лазера для выведения из строя противников — это просто дополнительная задача. В Wolfpack, напротив, кооперация требует больше вычислительной мощности, поэтому более развитый ИИ ведет себя вполне миролюбиво, сообщает The Verge.

В своем блоге исследователи DeepMind подчеркнули, что не стоит очеловечивать искусственный интеллект и считать, что он будет преследовать свою выгоду, не останавливаясь ни перед чем, включая убийство. Алгоритмы следуют строгим правилам и в соответствии с ними меняют свое поведение. «Исследование позволит нам лучше понимать и контролировать сложные системы с несколькими участниками, например, экономику, дорожное движение и экологию на планете», — отметили руководители эксперимента.

Поведение алгоритмов при решении социальных дилемм не первый подобный эксперимент компании DeepMind. Исследователи также учат ИИ мечтать, строить маршруты и играть в футбол. Однако главным достижением DeepMind по-прежнему остается разработка алгоритма AlphaGo, который одержал победу над чемпионом в го и продолжает побеждать лучших мастеров в серии онлайн-игр.

https://hightech.fm/2017/02/10/ai_dilemma

наукатехнологии