Про це він сказав на першому засіданні Ради Безпеки ООН на цю тему, пише France24.
«Очевидно, що штучний інтелект матиме вплив на кожну сферу нашого життя. Генеративний штучний інтелект має величезний потенціал для добра і зла в масштабах», — сказав Гутерреш.
Він зазначив, що попри те, що ШІ може допомогти покласти край бідності або допомогти вилікувати рак, ця технологія також може мати «дуже серйозні наслідки для глобального миру та безпеки».
Британський міністр закордонних справ Джеймс Клеверлі, чия країна зараз головує в Раді Безпеки, сказав, що штучний інтелект «вплине на роботу цієї ради. Він може посилити або порушити глобальну стратегічну стабільність».
«Це кидає виклик нашим фундаментальним припущенням щодо захисту та стримування. Це ставить моральні питання щодо відповідальності за смертоносні рішення на полі бою», — наголосив Клеверлі.
Гутерреш попросив країни-члени укласти юридично зобов’язуючий пакт про «заборону летальних автономних систем зброї» до кінця 2026 року.
«Я закликаю досягти згоди щодо загального принципу, згідно з яким людська діяльність і контроль є важливими для ядерної зброї і ніколи не повинні бути виведені», — зазначив він.