Интернет. Компьютер. Помощь. Советы. Ремонт

Google проверил искусственный интеллект DeepMind в условиях "дилеммы заключенного". Google проверил искусственный интеллект DeepMind в условиях "дилеммы заключенного" DeepMind открыло бесплатный доступ к виртуальной среде машинного обучения

Выглядит вполне вероятным, что искусственный интеллект (ИИ) станет предвестником следующей технологической революции. Если ИИ получит развитие до точки, когда будет способен учиться, думать и даже «чувствовать», и все это без какого-либо участия человека, все, что мы знаем о мире, изменится практически в одночасье. Настанет эра действительно умного искусственного интеллекта.

DeepMind

Вот почему нам так интересно отслеживать основные вехи в развитии ИИ, которые происходят сегодня, в том числе разработку нейронной сети DeepMind от Google. Эта нейронная сеть уже смогла победить человека в игровом мире, и новое исследование, проведенное Google, показывает, что создатели DeepMind пока еще не уверены, предпочитает ли ИИ более агрессивное, или же кооперативное поведение.

Команда Google создала два относительно простых сценария, с помощью которых можно проверить, смогут ли нейронные сети работать вместе, или же начнут уничтожать друг друга, когда столкнутся с проблемой недостатка ресурсов.

Сбор ресурсов

Во время первой ситуации под названием Gathering участвующим двум версиям DeepMind — красной и синей — была поставлена ​​задача уборки зеленых «яблок» внутри замкнутого пространства. Но исследователей интересовал вопрос не только о том, кто первым придет к финишу. Обе версии DeepMind были вооружены лазерами, которые они могли использовать, чтобы в любое время стрелять в противника и временно отключать его. Эти условия предполагали два основных варианта развития событий: одна из версий DeepMind должна была уничтожить другую и собрать все яблоки, или же они позволили бы друг другу получить примерно одинаковое количество.

Запуская моделирование не менее тысячи раз, исследователи Google обнаружили, что DeepMind был очень мирным и готовым к сотрудничеству, когда в замкнутом пространстве оставалось много яблок. Но по мере уменьшения ресурсов красная или синяя версии DeepMind начинали атаковать или отключать друг друга. Такая ситуация в значительной степени напоминает реальную жизнь большинства животных, включая человека.

Что еще более существенно, меньшие и менее «интеллектуальные» нейронные сети предпочитали более тесное сотрудничество во всем. Более сложные, крупные сети, как правило, предпочитали предательство и эгоизм на протяжении серии экспериментов.

Поиск «жертвы»

Во втором сценарии, названном Wolfpack, красную и синюю версии попросили выследить невзрачную форму «жертвы». Они могли бы попытаться поймать ее отдельно, но для них было бы более выгодно пытаться сделать это вместе. В конце концов, намного проще загнать жертву в угол, если вы действуете в паре.

Хотя результаты были смешанными в случае с небольшими сетями, большие версии быстро поняли, что сотрудничество, а не конкуренция в этой ситуации будет более выгодно.

«Дилемма заключенного»

Так что же эти две простые версии «дилеммы заключенного» нам показывают? DeepMind знает, что лучше всего сотрудничать, если необходимо выследить цель, но когда ресурсы ограничены, хорошо работает именно предательство.

Наверное, самое страшное в этих результатах то, что «инстинкты» искусственного интеллекта слишком похожи на человеческие, а мы ведь хорошо знаем, к чему они иногда приводят.

В настоящее время многие компании занимаются разработкой искусственного интеллекта (ИИ). Уже созданы его простейшие формы, которые способны осуществлять примитивные мыслительные операции.

Интернет-гигант Google активно занимается разработкой ИИ. В 2014 году данная компания приобрела стартап-компанию Deep Mind Technologies за $400 млн. Интересно, что именно Deep Mind Technologies разработала прибор, соединяющий в себе свойства нейронной сети и вычислительные возможности компьютера. Учёные уверены, что эта разработка приблизит человечество к созданию полноценного искусственного интеллекта.

Прибор Deep Mind Technologies представляет собой компьютер, который воспроизводит способ хранения и управления информацией мозгом человека, а именно отделом кратковременной памяти. Основа прибора – своеобразная нейронная сеть, структура которой похожа на структуру человеческого мозга, состоящего из взаимосвязанных нейронов. Особенность ИИ состоит в том, что после выполнения ряда простых задач компьютер может использовать сохранённые данные для выполнения более сложных. Таким образом, ИИ обладает свойством самообучаться и стремлением к эволюции, что в итоге может привести к противостоянию ИИ и человека.

По мнению всемирно известного физика Стивена Хокинга , искусственный интеллект представляет угрозу для человечества. Об этом он заявил в интервью изданию ВВС: «Примитивные формы искусственного интеллекта, которые существуют сегодня, доказали свою полезность. Однако я думаю, что развитие полноценного искусственного разума может положить конец человеческой расе. Рано или поздно человек создаст машину, которая выйдет из-под контроля и превзойдёт своего творца. Такой разум возьмёт инициативу на себя и станет сам себя совершенствовать со всёвозрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться скоростью с машинами и проиграем».

Мнение Хокинга разделяют также другие учёные и специалисты, в том числе и Элон Маск , известный американский IT-предприниматель и создатель компаний Tesla и Space X. Маск заявил, что ИИ может быть опаснее ядерного оружия и несёт серьёзную угрозу для существования человечества».

Компания Google поставила перед собой задачу – создать к 2030 году сверхразум. Этот суперразум будет внедрён в компьютерную систему, в частности в Интернет. В момент, когда пользователь будет искать информацию, суперинтеллект проанализирует психотип этого человека и выдаст ему ту информацию, которую посчитает подходящей. Об этом Эрик Шмидт, председатель совета директоров компании Google, пишет в своей книге. А тех, кто откажется подключиться к этой системе, он предлагает рассматривать как потенциально опасных для государства субъектов. Предполагается, что для внедрения функционирования этой системы будет подготовлена законодательная база на государственном уровне.

Таким образом, разрабатываемый суперинтеллект станет глобальным инструментом контроля над человечеством. С появлением сверхинтеллекта человек перестанет заниматься наукой, этим будет заниматься суперинтеллект, который в разы будет превосходить человеческий мозг во всех аспектах его проявления.

Справка:

Сверхразум – это любой разум, который существенно превосходит ведущие умы человечества почти во всех сферах, включая разнообразные научные исследования, социальные навыки и другие сферы.

Результатом создания сверхразума станет то, что человеческий вид перестанет быть наиболее разумной формой жизни в известной нам части Вселенной. Некоторые исследователи считают, что создание сверхразума – это последняя ступень человеческой эволюции, а также последнее изобретение, которое человечеству необходимо будет сделать. Потому что предполагается, что сверхразумы смогут самостоятельно позаботиться о последующем научно-техническом прогрессе намного эффективнее, чем люди».

Информация для размышления:

С 2007 года в одном из британских отелей проходит ежегодная конференция «Дух времени Google». Интересно, что в этой встрече принимают участие не только специалисты по высоким технологиям и представители транснациональных корпораций и международных банков. Можно сделать вывод, что руководители трансконтинентальных корпораций, международных банков заинтересованы в создании сверхразума, а возможно, и финансируют этот проект.

Расул Гирайалаев

Исследователи Google Deepmind представили систему искусственного интеллекта нового типа, так называемый дифференцируемый нейронный компьютер, DNC. Система сочетает обучаемость нейросетей с дедуктивными способностями традиционного ИИ. Ее описание опубликовано в журнале Nature , новой работе посвящена в этом же выпуске журнала, краткий пересказ работы можно прочитать в блоге Deepmind.

Самые простые нейросети представляют собой систему предсказания, регрессии, задача которой - сопоставлять входным данным некий ответ. Например, простая нейросеть может распознавать символы, основываясь на их изображениях. В этом смысле нейросеть можно рассматривать как математическую функцию, причем дифференцируемую функцию. Обучить нейросеть в такой парадигме означает оптимизировать эту функцию с помощью стандартных математических методов (доступное объяснение того, как происходит обучение, можно прочитать ).

В способности обучаться на данных без прямого программирования человеком заключается главное преимущество нейросетей. Однако простейшие нейросети не являются полными по Тюрингу , т. е. они не могут делать всех тех вещей, на которые способны традиционные алгоритмические программы (это, впрочем, не значит, что они не могут делать некоторые из этих вещей лучше, чем программы). Одна из причин этого - отсутствие у нейросетей памяти, с помощью которой можно оперировать входными данными и хранить локальные переменные.

Относительно недавно появился более сложный тип нейросетей, в котором этот недостаток был устранен - так называемые рекуррентные нейросети. В них не только хранится информация о состоянии обученности (матрица весов нейронов), но и информация о предыдущем состоянии самих нейронов. В результате на ответ такой нейросети влияют уже не только входные данные и матрица весов, но и ее ближайшая история. Простейшая нейросеть такого типа может, например, «умно» предсказывать следующий символ в тексте: обучив нейросеть на данных словаря, можно будет на символ «l» получить ответ «l» в том случае, если предыдущими символами были «h», «e» и «l», но уже другой ответ - «o», если предыдущими были «h», «e», «l» и снова «l» (получится слово «hello», см. врез).

Пример реккурентной нейросети с одним скрытым слоем. Видно, как подача данных меняет состояние сети. Обученные веса нейронов хранятся в матрицах W_xh, W_hy и особой, свойственной только для рекурентных сетей матрице W_hh.

Andrej Karpathy blog

Рекуррентные нейросети очень хорошо показали себя при генерации музыки или текста «в стиле» некоторого автора, на корпусе которого проходило обучение, в * и, недавно, в системах и так далее (например, ).

Формально говоря, даже простейшие рекуррентные нейросети являются Тюринг-полными, однако их важный недостаток заключается в неявном характере использования памяти. Если в машине Тюринга память и вычислитель разделены (что позволяет по-разному менять их архитектуру), то в рекуррентных нейросетях, даже в самых совершенных из них (LSTM), размерность и характер обращения с памятью определяется архитектурой самой нейросети.

Чтобы исправить этот врожденный порок LSTM-сетей, ученые из DeepMind (все они вошли в коллектив авторов новой статьи) недавно предложили архитектуру так называемой нейронной машины Тюринга (Neural Turing Machines). В ней вычислитель и память разделены, как в обычных машинах Тьюринга, но при этом система сохраняет свойства дифференцируемой функции, а значит, ее можно обучать на примерах (с помощью метода обратного распространения ошибки), а не программировать в явном виде. Новая система, дифференцируемый нейронный компьютер, или DNC, базируется на той же архитектуре, однако в нем общение вычислителя с памятью организовано существенно более гибким образом: в ней реализуются концепции не только запоминания, но и контекстного узнавания и забывания (сравнению двух систем посвящен отдельный раздел новой статьи).

Упрощенно, работу DNC можно представить следующим образом. Система состоит из вычислителя, в роли которой может быть практически любая рекуррентная нейросеть, и памяти. У вычислителя есть специальные модули для обращения к памяти, а над памятью есть особая «надстройка» в виде матрицы, хранящей историю ее использования (подробнее ниже). Память представляет собой матрицу размерности N×M, где строки N i являются основными ячейками, куда записываются данные (в виде векторов размерности M).


Архитектура DNC: строчки данных показаны строчками с черными и белыми квадратами - они обозначают просто положительные и отрицательные числа в векторе. Видно, что чтение имеет три модуля работы C, B и F, т.е ассоциативный, прямой и обратный - это способы сравнения входного вектора с вектором в ячейке памяти. Память имеет размерность N×M. Крайняя справа схематически показана матрица «метапамяти» размерности N×N, хранящяя последовательность обраoщения к памяти.

Основное отличие DNC от близких систем заключается в характере обращения с памятью. В нем реализуется одновременно несколько новых или недавно появившихся концепций: избирательного внимания, контекстного поиска, вспоминания по ассоциации и забывания. Например, если обычные компьютеры обращаются к памяти явным путем («запиши данные такие-то в ячейку такую-то»), то в DNC запись, формально говоря, происходит во все ячейки сразу, однако степень влияния новых данных на старые определяется весами внимания к разным ячейкам. Такая реализация концепции называется «мягким вниманием», и именно она обеспечивает дифференцируемость - системы с жестким вниманием требованию непрерывности функции не удовлетворяют и не могут обучаться методом обратного распространения ошибки (используется обучение с подкреплением). Однако даже «мягкое внимание» в системе DNC на практике реализуется «довольно жестко», так что можно по-прежнему говорить о записи или считывании из определенной строки матрицы памяти.

«Мягкое внимание» реализуется в системе в трех режимах. Во-первых, это контекстный поиск, который позволяет DNC дополнять неполные данные. Например, когда на вход вычислителя подается кусочек какой-то последовательности, напоминающей ту, что уже хранится в памяти, то оператор чтения с вниманием в режиме контекстного поиска находит наиболее близкую по составу строку и «смешивает» ее со входными данными.

Во-вторых, внимание к разным частям памяти может определяться историей ее использования. Эта история хранится в матрице размерности N×N, где каждой ячейке N(i,j) соответствует близкий к 1 балл, если после записи в строку i следовала запись в строку j (или ноль, если нет). В такой «матрице метапамяти» заключается одно из принципиальных отличий новой системы DNC от старой NTM. Она позволяет системе последовательно «вспоминать» блоки данных, если они часто встречаются в контексте друг друга.

В-третьих, особый режим внимания позволяет системе контролировать запись в разные строки памяти: хранить важное и стирать неважное. Строка считается тем более заполненной, чем большее число раз в нее производилась запись, но при этом чтение из строки может, наоборот, приводить к ее постепенному стиранию. Полезность такой функции оказывается очевидна в примере с обучением на базе DNC простого повторителя (нейросеть должна в точности воспроизвести последовательность данных, которые на нее подавались). Для такой задачи при возможности стирания даже небольшого объема памяти оказывается достаточно для того, чтобы повторять неограниченное число данных. Здесь следует отметить, что реализовать повторитель программным путем очень просто, но сделать это на базе нейросети, за счет обучения с подкреплением - задача гораздо более сложная.


Схема работы повторителя, реализованного на базе DNC. Время на схеме идет слева направо. Верху показаны данные, которые получает контроллер на входе: сначала столбик из десяти черных полосок (все нули), потом несколько белых и черных, потом снова несколько белых и черных, но уже в другой последовательности. Ниже, где таким же образом отображается выход с контроллера, сначала видим черные столбики, а затем - почти точное воспроизведение последовательности паттернов (такая же белая клякса, как на входе). Затем на вход подается новая последовательность - с опозданием она вновь воспроизводится на выходе. На среднем графике показано, что происходит в это время с ячейками памяти. Зеленые квадраты - запись, розовые - чтение. Насыщенностью показана «сила внимания» именно к этой ячейке. Видно, как система сначала записывает получаемые паттерны в ячейку 0, потом 1 и так до 4. На следующем шаге системе снова дают одни нули (черное поле) и поэтому она перестает записывать и начинает воспроизводить паттерны, считывая их из ячеек в той же последовательности, как туда попали. В самом низу показана активация вентилей, управляющих освобождением памяти.

Alex Graves et al., Nature, 2016

Полученную систему ученые испытали в нескольких тестовых задачах. Первой из них стал недавно разработанный исследователями из Facebook стандартизированный тест на понимание текста - bAbI . В нем системе ИИ дают небольшой текст, где действуют какие-то герои, а затем нужно ответить на вопрос по тексту («Джон пошел в сад, Мери взяла бутылку молока, Джон вернулся в дом. Вопрос: Где Джон?»).

В этом синтетическом тесте новая система продемонстрировала рекордно низкий уровень ошибок: 3,8 процента против 7,5 процентов предыдущего рекорда - в этом она обошла и LSTM-нейросети и NTM. Интересно, что при этом все, что получала система на входе, была последовательность слов, которые для необученной нейросети не имели поначалу никакого смысла. В то же время традиционным системам ИИ, которые уже проходили этот тест, ранее давали четко формализованные предложения с жесткой структурой: действие, актор, истинность и т. д. Рекуррентная нейросеть с выделенной памятью смогла разобраться в роли слов в тех же предложениях совершенно самостоятельно.

Существенно более сложным испытанием стал тест на понимание графов. Он также был реализован как последовательность предложений, однако на этот раз они описывали структуру некоторой сети: реального лондонского метро или типичного генеалогического дерева. Сходство с тестом bAbI заключается в том, что акторов в стандартизованном тексте тоже можно представить как узлы графа, а их отношения - как грани. При этом в текстах bAbI граф получается довольно примитивный, несравнимый с размером лондонского метро (сложность понимания схемы метро нейросетью можно лучше осознать, если вспомнить, что его описание дается словами, а не в виде изображения: попробуйте самостоятельно запомнить схему метро любого большого города и научиться отвечать на вопросы по ней).

После обучения на миллионе примеров компьютер DNC научился отвечать на вопросы по схеме метро с точность в 98,8 процентов, при этом система на базе LSTM почти совсем не справилась с задачей - она давала только 37 процентов правильных ответов (цифры приведены для самой простой задачи вроде «где я окажусь, если проеду столько-то станций по такой-то линии, пересяду там-то и проеду еще столько-то станций». Задача о кратчайшем расстоянии между двумя станциями оказалось более сложной, но с ней DNC тоже справилась).

Подобный эксперимент проводился и с генеалогическим древом: программе давали последовательность формальных предложений о родственных взаимоотношениях в большой семье, а она должна была отвечать на вопросы вроде «кто приходится Маше троюродным дядей по маминой линии». Обе задачи сводятся к нахождению пути на графе, которая традиционным путем решается довольно просто. Однако ценность работы заключается в том, что в данном случае нейросеть находила решение совершенно самостоятельно, основываясь не на известных из математики алгоритмах, а на базе примеров и системе подкрепления при обучении.

График скорости решения задачи SHRDLU системой DNC (зеленые) и LSTM (синие).

Третьим тестом стал немного упрощенный «классический» тест SHRDLU , в котором нужно передвигать некие виртуальные предметы по вируальному пространству в соответствии с определенно заданным финальным результатом, который нужно получить в конце. Система DNC снова получала описание текущего состояния виртуального пространства в виде формализованных предложений, затем таким же образом перед ней ставили задачу и она отвечала последовательным текстом о том, как надо двигать предметы. Как и в остальных тестах, DNC показала себя существенно эффективнее систем LSTM, что хорошо видно из графиков скорости обучения.

Рискуя лишний раз повторить очевидные вещи, не могу не подчеркнуть, что кажущаяся простота задач, на которых тестировалась DNC, - действительно кажущаяся. В том смысле что она не отражает сложности тех реальных проблем, с которыми в будущем сможет справиться система, подобная DNC. Конечно, с точки зрения существующих алгоритмов задача поиска пути в метро это просто ерунда - любой может скачать себе на телефон приложение, которое умеет это делать. Оно еще и время подсчитает с пересадками и укажет, в какой вагон лучше садиться. Но ведь все такие программы до сих пор создавал человек, а в DNC она «рождается» сама собой, в процессе обучения на примерах.

На самом деле в простоте тестовых задач кроется одна очень важная вещь, о которой хочется сказать. Одна из самых главных проблем в машинном обучении - где взять данные, на которых можно было бы систему натренировать. Получать эти данные «руками», т.е. создавать самому или с помощью нанятых людей, слишком затратно. В любом проекте по матобучению нужен простой алгоритм, который мог бы легко и дешево создавать гигабайты новых данных для тренировки (ну, или нужно получить доступ к уже готовым базам). Классический пример: для проверки систем распознавания символов люди не пишут руками новые и новые буквы, а используют простую программу, которая искажает уже существующие изображения. Если же у вас нет хорошего алгоритма для получения обучающей выборки (или, например, такой алгоритм принципиально нельзя создать), то успехи в разработке будут примерно такими же, как у медицинских бионформатиков, которые вынуждены работать только с реальными и от того по-настоящему «золотыми» данными (в двух словах: успехи не очень).

Именно здесь авторам статьи пригодились готовые алгоритмы по решению задач на графе - как раз для получения миллионов правильных пар вопросов и ответов. Нет сомнения, что простота создания обучающей выборки определила характер тестов, которыми проверяли новую систему. Однако важно помнить, что сама архитектура DNC с простотой этих тестов никак не связана. Ведь даже самые примитивные реккурентные нейросети могут не только переводить тексты и описывать изображения, но и писать или генерировать этюды (на слух автора, конечно). Что уж говорить о таких продвинутых, действительно «умных» системах, как DNC.

Александр Ершов

Google покупает лондонскую компанию, которая занимается разработкой искусственного интеллекта - DeepMind. Источники называют сумму сделки в более чем 500 миллионов долларов. Покупка официально подтверждена представителями в Google.


Что Google даст это приобретение? Во-первых, позволит ей конкурировать с другими крупными технологическими компаниями, благодаря фокусу на глубоком обучении. К примеру, Facebook недавно наняла профессора Янна ЛеКанна, который возглавит ее собственную разработку искусственного интеллекта. Суперкомпьютер Watson от IBM в настоящий момент сосредоточен именно на глубоком обучении, а Yahoo недавно приобрела стартап по анализу фотографий LookFlow, то есть тоже продвигается в этом вопросе.

DeepMind был основан нейробиологом Демисом Хассабисом, бывшим шахматным вундеркиндом, разработчиком Skype и Kazaa Яаном Таллином и исследователем Шейн Легг.

Этот шаг Google позволит команде техногиганта заполнить собственное поле экспертов в сфере искусственного интеллекта, и, как сообщают источники, приобретение лично курировалось CEO Google Ларри Пейджем. Если все три основателя будут работать на Google, они присоединятся к изобретателю, предпринимателю, автору и футурологу Рэю Курцвейлу, который в 2012 году стал техническим директором подразделения Google, занимающегося машинным обучением и обработкой языка.

Курцвейл заявлял, что хочет построить настолько совершенную поисковую систему, что она сможет стать настоящим «кибернетическим другом».

После приобретения Nest в начале этого месяца критики выразили озабоченность на тему того, сколько пользовательских данных будет отправляться в Google. Покупка Boston Dynamics в прошлом месяце также привела к дебатам на тему того, что Google планирует стать производителем роботов.

Тем не менее Google хорошо подготовилась к тому, чтобы развеять наши опасения о последних своих приобретениях. Источники говорят, что Google приняла решение учредить совет по этике, который будет контролировать развитие искусственного интеллекта в рамках DeepMind.

Однако компании придется прояснить, что именно делает искусственный интеллект DeepMind. На сайте компании в настоящее время висит целевая страница с относительно расплывчатым описанием, в котором сказано, что DeepMind - это «компания, которая находится на передовой», и занимается строительством алгоритмов будущего для симуляций, электронной коммерции и игр. По состоянию на декабрь в стартапе работает 75 сотрудников.

Основными спонсорами стартапа являются Founders Fund и Horizons Ventures. DeepMind был основан три года назад.

В 2012 году профессор института Карнеги-Меллона Ларри Вассерман написал, что «стартап собирается создать систему, которая думает. Я решил, что это чистое безумие, пока не узнал, сколько известных миллиардеров вложилось в компанию».

6 декабря 2016 в 00:41

DeepMind открыло бесплатный доступ к виртуальной среде машинного обучения

  • Научно-популярное ,
  • Искусственный интеллект ,
  • Игры и игровые приставки

На днях представители подразделения DeepMind (сейчас входит в состав холдинга Alphabet) сообщили о предоставлении бесплатного доступа разработчикам к исходному коду платформы DeepMind Lab. Это сервис машинного обучения на базе Quake III, который предназначен для обучения искусственного интеллекта. А именно - научиться решать задачи в трехмерном пространстве без вмешательства человека. Основой платформы является движок игры Quake III Arena.

Внутри игрового мира ИИ получает форму сферы и возможность летать, изучая окружающее пространство. Цель, которую ставят перед собой разработчики - научить слабую форму ИИ «понимать», что происходит и реагировать на различные ситуации, происходящие в виртуальном мире. «Персонаж» может выполнять ряд действий, перемещаться по лабиринту, изучать ближайшее окружение.

«Мы стараемся разрабатывать различные формы ИИ, способные выполнять ряд задач от обычного изучения игрового мира до совершения каких-либо действий с анализом их последствий», - рассказывает Шейн Легг, главный научный сотрудник DeepMind.

Специалисты надеются, что ИИ сможет учиться методом проб и ошибок. Игры в этом случае - почти идеальный вариант. Например, ранее в DeepMind использовали (и используют сейчас) игровую консоль Atari для того, чтобы научить нейросеть выполнять последовательные действия, необходимые для игры.

Но открытый трехмерный мир, который можно изменять, представляет гораздо более перспективную среду для обучения ИИ, чем плоский мир графически простых игрушек для Atari. ИИ в трехмерном мире имеет четкие задания, которые последовательно меняются таким образом, что опыт, полученный при решении каждого предыдущего задания, оказывается полезным для ИИ в ходе решения последующего.

Плюсом трехмерного окружения является то, что с его помощью можно обучать компьютерные системы реагировать на различные проблемы, которые могут ожидать робота и в реальном мире. При помощи такого симулятора без проблем обучаются промышленные роботы. А работать с виртуальным окружением не в пример проще в некоторых случаях, чем обучать такие системы «вручную».

При этом большинство современных нейросетей разрабатывается для решения одной специфической задачи (обработка изображений, например). Разработчики новой платформы обещают, что она поможет создать универсальную форму ИИ, способную решать большое количество задач. Причем помощь людей в этом случае компьютерной системе не понадобится. Генерация окружения для нейросети происходит каждый раз в случайном порядке.


По мнению разработчиков платформы, она помогает учиться ИИ примерно так же, как обучаются дети. «Как вы или я изучали мир в детстве», - привел пример один из сотрудников DeepMind. «Сообщество специалистов по машинному обучению было всегда очень открытым. Мы публикуем около 100 статей в год, кроме того, мы открыли исходный код многих своих проектов».

Сейчас Google DeepMind открыло исходный код DeepMind Lab, выложил его на GitHub . Благодаря этому любой человек может скачать код платформы и модифицировать ее под свои нужны. Представители проекта заявляют, что новые игровые уровни подключившиеся специалисты могут создавать самостоятельно, загружая собственные проекты на GitHub. Это может помочь всему сообществу работать над достижением своей цели быстрее и эффективнее.

Этот проект - не единственный для DeepMind. В прошлом месяце его представители заключили договор о сотрудничестве с Activision Blizzard Inc. Цель - среды Starcraft 2 в тестовую площадку для искусственного интеллекта. Возможно, в скором времени к этому проекту подключатся и другие разработчики игр. К слову, ИИ в игровой среде не получает над противником никакого преимущества, используя для продвижения лишь , как и человек.

На практике это означает, что ИИ Google понадобится предугадывать, что в каждый конкретный момент времени делает противник, чтобы адекватно отвечать на действия «врага». Кроме того, необходимо будет быстро реагировать на то, что пошло вне плана. Все это позволит протестировать уже следующий уровень возможностей искусственного интеллекта. «В конце-концов мы хотим применить эти способности для решения общемировых проблем», - сообщил Демис Хассабис (Demis Hassabis), основатель компании Deepmind (именно ее в 2014 году купил Google, и сейчас на базе достижений купленной компании ведется разработка ИИ).

Специалисты, связанные с ИИ, высказывают осторожное одобрение проекту. «Очень хорошо то, что они дают большое количество типов окружения», - заявил сооснователь OpenAI Илья Сутскевар (Ilya Sutskevar). «Чем с большим количеством типов окружения столкнется система, тем быстрее она будет развиваться», - продолжил он. И действительно, трехмерная среда обучения ИИ содержит более 1000 уровней и типов окружения.

Зубин Гахрахмани (Zoubin Gahrahmani), профессор из Кэмбриджа, считает, что DeepMind Lab и другие платформы для усиления развития искусственного интеллекта способствуют прогрессу, допуская исследователей к разработанной среде. При этом проекты, подобные

Понравилась статья? Поделитесь с друзьями!
Была ли эта статья полезной?
Да
Нет
Спасибо, за Ваш отзыв!
Что-то пошло не так и Ваш голос не был учтен.
Спасибо. Ваше сообщение отправлено
Нашли в тексте ошибку?
Выделите её, нажмите Ctrl + Enter и мы всё исправим!