Пoдрaздeлeниe DeepMind, вxoдящee в сoстaв Google и зaнимaющeeся исслeдoвaниями в сфeрe искусствeннoгo интeллeктa, рaсскaзaлo oб oчeрeдныx успexax свoиx ИИ-aгeнтoв, oбучeнныx игрaть в игру StarCraft II. ПO AlphaStar дoстиглo невероятных успехов и теперь способно обыграть в соревновании 99,8% всех игроков-людей.
Отмечается, что с целью уравнять в возможностях ИИ и игроков людей, ПО AlphaStar было соответствующим образом модифицировано. В частности, ИИ был обучен играть всеми тремя доступными в StarCraft II расами. Кроме того, обзор карты был ограничен таким же уровнем, что доступен человеку. Наконец, действовало ограничение в количестве кликов кнопками мышки – не более 22 недублирующихся действия каждые 5 секунд игры. Это соответствует количеству стандартных движений при игре человеком.
Даже несмотря на все указанные ограничения, ИИ смог обыграть 99,8% всех игроков-людей, принявших участие в онлайн-соревновании, и достичь уровня гроссмейстера. Это максимально возможный онлайн-рейтинг, и AlphaStar стала первой ИИ-системой, достигшей такого результата в StarCraft II.
DeepMind рассматривает это достижение как ещё одно доказательство того, что используемый командой способ машинного обучения может однажды быть использован для тренировки самообучающихся роботов, самоуправляемых автомобилей и создания более совершенных систем распознавания изображений и объектов.
Цель исследований AlphaStar и других подобных игровых агентов (например, OpenAI Dota 2) состоит не просто в том, чтобы сокрушить людей в различных играх, просто чтобы доказать, что это возможно. Эти исследования позволяют доказать, что при достаточном времени, усилиях и ресурсах сложное программное обеспечение для искусственного интеллекта может превзойти человека практически в любой конкурентной когнитивной задаче, будь то настольная игра или современная видеоигра. Это также показывает преимущества метода машинного обучения с подкреплением. Этот метод позволяет агентам самостоятельно понять, как нужно играть, и иногда это приводит к появлению невероятных тактик.
OpenAI и DeepMind ускоренно обучают своих агентов ИИ в играх против своих же версий и в ускоренном темпе. Таким образом, агенты могут наигрывать сотни лет игрового процесса на протяжении нескольких месяцев. Это и позволило данному типу программного обеспечения превзойти самых талантливых игроков в Го, а теперь и в более сложных играх, таких как StarCraft II и Dota 2. Хотя такое ПО всё же ограничено узкой дисциплиной, и агент для Го не может играть в Dota 2 и наоборот.
Источник: The Verge