Подразделение Google DeepMind, занимающееся разработками в области искусственного интеллекта, начало "стравливать" компьютерный "разум" в играх, чтобы изучить его поведение при различных обстоятельствах. Задача эксперимента — выяснить, в каком сценарии ИИ-агенты готовы сотрудничать друг с другом, а в каком — конкурировать.
В Google хотят узнать реакцию ИИ на так называемую дилемму заключенного — проблему в теории игр, согласно которой игроки не всегда будут сотрудничать друг с другом, даже если это в их интересах. В этой дилемме преступникам дается выбор: дать показания против другого (и посадить его на 3 года), и выйти на свободу за помощь следствию, либо сохранить молчание. Если же оба будут свидетельствовать против друга, они получат 2-летний срок.
Читайте также: Google и Blizzard научат искусственный интеллект играть в Starcraft II
На дилемму нельзя дать однозначный ответ: все зависит от того, к какому результату стремится игрок. Чтобы узнать решение ИИ, в DeepMind разработали две игры: Gathering и Wolfpack. В первой ИИ-агентам, представляющим красный и синий квадраты, поставили задачу собрать как можно больше яблок (желтые квадраты). При этом каждому участнику дали возможность выстрелить в противника лазером, чтобы обездвижить его на некоторое время. Как оказалось, вначале ИИ-агенты вели себя вполне мирно, не торопясь собирая яблоки, но чем меньше фруктов оставалось на поле, тем агрессивнее они становились и чаще хотели выбить другого из игры.
Читайте также: Алгоритм Google "восстанавливает" изображение по нескольким пикселям
В другой игре, Wolfpack, искусственному интеллекту приказали сотрудничать друг с другом, чтобы найти третьего, убегающего от них ИИ-агента. При этом игроки должны были обходить препятствия (серые квадраты) таким образом, чтобы не блокировать проход партнеру. В отличие от первой игры (где важным фактором победы была конкуренция), здесь ИИ-агенты показали большую тягу к взаимодействию, так как это было отчетливо выгодно им обоим.
Так, посредством игр в Google хотят найти ответ на вопрос, в каких ситуациях ИИ готов конфликтовать с "сородичами". Ответ на него крайне важен, когда искусственный интеллект возьмет на себя решение задач в реальном мире. Например, ученых интересует, как разрешится ситуация, если один ИИ-агент управляет дорожным движением по всему городу, а другой — стремится сократить выбросы углекислого газа.
Источник: Engadget