Опубликовано 15 июня 2016, 15:59
Реклама

Геймеры на перевоспитании: как технологии охраняют культуру игры

В этой статье мы рассказываем, как компания Riot Games, создательница League of Legends, проводила эксперименты с искусственным интеллектом и предиктивным анализом, чтобы обнаруживать и останавливать онлайн-троллей. А после внедрения программы на основе искусственного интеллекта, в играх стало на 40 процентов меньше словесных оскорблений.
Геймеры на перевоспитании: как технологии охраняют культуру игры

Миллионы молодых геймеров привыкли противостоять «плохим парням.» Но зачастую их самые страшные враги – это коллеги по игре. На многих сайтах онлайн-игр бушуют притеснения, запугивания. Некоторым даже угрожают смертью. Это общая проблема для многих онлайн-сообществ, включая Twitter, YouTube и Facebook.

Как же отделить нарушителей порядка? Уже несколько лет Riot Games, которая производит невероятно популярную игру League of Legends, экспериментирует с искуственным интеллектом и инструментами предиктивного анализа, чтобы выявить онлайн-троллей и восстановить дух игры. Игроки в лиге помогают обнаружить «паршивых овец» и принять решение о необходимых действиях. Их суждения тоже анализируются программой искусственного интеллекта, которая со временем сможет практически самостоятельно идентифицировать, обучать, перевоспитывать и дисциплинировать игроков.

Riot Games исследуют, как могут саморегулироваться большие и разношерстные онлайн-сообщества. Эти знания могут использоваться по-разному: например, чтобы делать командное взаимодействие более эффективным в зависимости от личностных типов или чтобы лучше понимать, как наши онлайн-личности отражают реальные.

«Раньше мы считали, что онлайн-игры и деструктивное поведение неразрывно связаны» - объясняет Джеффри Лин (Jeffrey Lin), главный игровой дизайнер социальных систем в Riot Games. “Но теперь мы знаем, что большинство игроков считает такое поведение отвратительным. Мы хотим создать культурную среду, которая показывает, что такое хорошая игра.”

Достичь этой цели непросто. Riot Games всегда регулировала поведение игроков – запрещала преследования и проявления расизма, сексизма, культурной дискриминации, гомофобии. Однако, в случае с League of Legends объем ежедневной активности не позволял следить за выполнением правил традиционными способами и усилиями модераторов. Более 27 миллионов людей играют минимум одну игру League of Legends в день, а в час пик одновременно может играть более 7,5 миллионов игроков.

Это одна из причин, почему Riot Games выделяет большие ресурсы на эту инициативу. Джеффри Лин, у которого докторская степень в когнитивной нейрологии, работает над ней совместно с другими учеными, которые специализируются на работе мозга. Создать техническую платформу тоже было заданием не из легких. Чтобы превратить петабайты анонимных данных в полезные выводы о поведении пользователей, необходим был конвейер данных. Команда Лина также сотрудничала с дизайнерами, чтобы убедиться, что их работа не влияет на интерфейс игры.

Фаза 1: Трибунал

В первой фазе программы, которая началась в 2011 году, игроки сообщали о нарушениях правил другими игроками. Эти отчеты поступали в публичную систему регистрации, так называемый Трибунал, в которой инциденты рассматривали отдельные игроки. Каждый случай обычно включал переписку в чате, статистику и игры и другую информацию, на основе которой комментатор решал, наказать или простить обвиняемого. Большинство случаев, по словам Лина, происходили, когда у игроков с нормальным поведением случались проблемы и они просто выплескивали их в игре.

Игроки оценивали контекст негативного комментария, чтобы проголосовать, насколько строгим должно быть наказание. Уровни были разные: от е-мейла, скромно напоминающего о нарушении правил, до долгосрочной блокировки аккаунта. После того, как в система собрала миллионы голосов, Riot Games закрыла Трибунал в 2014 году и начала работать над системой с искусственным интеллектом.

«Есть два способа справляться с проблемами такого масштаба, и мы задействуем оба,» говорит Эрик Робертс, руководитель по коммуникациям в Riot Games. «Сперва, дайте инструменты в руки сообществу, а после – постройте обучаемые системы, которые используют масштаб поступающих данных, чтобы бороться с проблемой.»

Фаза 2: искусственный интеллект

В прошлом году Riot Games начала тестировать свою систему «перевоспитания игроков», которая быстрее дает обратную связь и частично автоматизирует процесс. Система, настроенная на выявление словесных оскорблений, может отсылать игрокам специальные карточки, содержащие доказательства их неправильного поведения. Команда Лина самостоятельно просмотрела несколько тысяч первых случаев, чтобы убедиться, что все работает, и результаты были поразительные: количество словесных оскорблений упало на 40 процентов с того момента, когда запустили Трибунал и новую программу с искусственным интеллектом.

Лин уверен, что многие разработчики игр будут наследовать эту модель – соединять когнитивные исследования, чтобы улучшить игру, и нанимать для этого междисциплинарные команды. «Мы перевоспитываем игроков тем, что даем им обратную связь и стимулируем обсуждение в сообществе,» говорит Лин. «Мы показали, что можем изменить культуру, применяя правильные инструменты.»

Чтобы узнать, как большие данные, автоматизация и искусственный интеллект изменяют будущее, загрузите отчет HPE “Big Data in 2016”

_

Инфографика

Инфографика

_

Автор:Ferra.ru