Коллектив американских исследователей создал алгоритм, способный анализировать коллективное поведение игроков и стратегию в командных видах спорта, например, футболе. Программа обучалась на траекториях профессиональных футболистов в матчах Европейской лиги УЕФА и при этом сама определяла роли игроков по ходу игры, не привязываяс к их формальным позициям в составе команде. Исследование было представлено на конференции ICML 2017, а также описано в препринте, который доступен на сайте Disney Research.Машинное обучение глубоких нейросетей уже неоднократно доказывало свое превосходство в задачах анализа и освоения различных игр. Настольные игры вроде шахмат и го уже окончательно покорились искусственному интеллекту, а на «победу» над компьютерными играми выделяется все больше ресурсов. С точки зрения машинного обучения и те и другие игры являются задачами обучения с подкреплением, и в них требуется обучить одного «агента», сколькими бы меньшими единицами (фигурами, юнитами) он ни управлял. Однако существуют игровые виды спорта, в том числе командные, где агентов несколько, и все они вынуждены взаимодействовать друг с другом. По понятной причине компьютеры на данный момент не могут соревноваться с людьми в таких видах спорта, зато могут анализировать игры и обучать своих агентов в симуляторах. До сих пор, однако, успехов в решении таких задач было немного из-за сложной системы взаимодействий агентов друг с другом.В новой работе авторы предложили гибридную схему машинного обучения, которая сочетает две глубоких нейросети. Одна занималась тем, что анализировала действия игроков в зависимости от игрового контекста (движений мяча и игроков соперника), стараясь предсказать наилучший план действий каждого игрока в отдельной игровой ситуации. Эта система обучалась с подкреплением, то есть на каждое действие система получает определенный отклик от «среды». Например, если какая-то серия действий приводила к пропущенному мячу, нейросеть была оштрафована, а если виртуальные игроки забивали гол сопернику — награждена.