Общий и повторяющийся взгляд на последние достижения в области исследований в области искусственного интеллекта заключается в том, что разумные и интеллектуальные машины находятся на горизонте. Машины понимают словесные команды, различают картинки, водят машины и играют в игры лучше, чем мы. Сколько еще времени может пройти, прежде чем они пройдут среди нас?
В новом отчете Белого дома по искусственному интеллекту скептически относится к этой мечте. Он говорит, что следующие 20 лет, скорее всего, не увидят, что машины «продемонстрируют широко применимый интеллект, сравнимый с человеческим интеллектом или превосходящий его», хотя продолжают утверждать, что в ближайшие годы «машины будут достигать и превосходить производительность человека на большем количестве». и больше задач ". Но его предположения о том, как эти возможности будут развиваться, упустили некоторые важные моменты.
Как исследователь искусственного интеллекта, я признаю, что было хорошо, чтобы моя собственная область была освещена на высшем уровне американского правительства, но доклад был сосредоточен почти исключительно на том, что я называю «скучным видом искусственного интеллекта». Он наполовину исключил мою ветвь исследований ИИ о том, как эволюция может помочь в разработке постоянно улучшающихся систем ИИ, и как вычислительные модели могут помочь нам понять, как развивался наш человеческий интеллект.
В отчете основное внимание уделяется тому, что можно назвать основными инструментами ИИ: машинное обучение и глубокое обучение. Это те виды технологий, которые смогли сыграть в «Опасность!» ну, и победите мастеров игры в го в самой сложной игре, когда-либо придуманной. Эти современные интеллектуальные системы способны обрабатывать огромные объемы данных и очень быстро выполнять сложные вычисления. Но им не хватает элемента, который будет иметь ключевое значение для создания разумных машин, которые мы представим в будущем.
Нам нужно больше, чем учить машины учиться. Нам нужно преодолеть границы, которые определяют четыре различных типа искусственного интеллекта, барьеры, которые отделяют машины от нас - и нас от них.
Тип I AI: Реактивные машины
Самые основные типы систем ИИ являются чисто реактивными и не способны ни формировать воспоминания, ни использовать прошлый опыт для информирования о текущих решениях. Deep Blue, суперкомпьютер IBM для игры в шахматы, в котором победил международный гроссмейстер Гарри Каспаров в конце 1990-х годов, является идеальным примером такого типа машин.
Deep Blue может определять фигуры на шахматной доске и знать, как каждый движется. Он может делать прогнозы о том, какие шаги могут быть последующими для него и его противника. И он может выбрать наиболее оптимальные ходы из числа возможных.
Но у него нет ни представления о прошлом, ни воспоминаний о том, что произошло раньше. Помимо редко используемого шахматного правила против повторения одного и того же хода, Deep Blue игнорирует все до настоящего момента. Все, что он делает, это смотрит на фигуры на шахматной доске, как она стоит сейчас, и выбирает из возможных следующих ходов.
Этот тип интеллекта подразумевает, что компьютер воспринимает мир напрямую и воздействует на то, что видит. Он не опирается на внутреннюю концепцию мира. В оригинальной статье исследователь ИИ Родни Брукс утверждал, что мы должны строить только такие машины. Его главная причина заключалась в том, что люди не очень хорошо умеют программировать точные моделируемые миры для компьютеров, что в науке ИИ называют «представлением» мира.
Современные интеллектуальные машины, которыми мы восхищаемся, либо не имеют такого представления о мире, либо имеют очень ограниченную и специализированную для своих конкретных задач. Инновация в дизайне Deep Blue не заключалась в расширении диапазона возможных фильмов, которые рассматривал компьютер. Скорее разработчики нашли способ сузить свой взгляд, прекратить преследовать некоторые потенциальные будущие шаги, основанные на том, как он оценил их результат. Без этой способности Deep Blue должен был бы стать еще более мощным компьютером, чтобы на самом деле победить Каспарова.
Точно так же AlphaGo от Google, которая опередила лучших экспертов по Go, также не может оценить все возможные будущие шаги. Его метод анализа более сложный, чем у Deep Blue, с использованием нейронной сети для оценки игровых разработок.
Эти методы улучшают способность систем искусственного интеллекта лучше играть в определенные игры, но их нельзя легко изменить или применить в других ситуациях. Эти компьютеризированные фантазии не имеют представления о более широком мире - это означает, что они не могут функционировать за пределами конкретных задач, которые им поручены, и их легко обмануть.
Они не могут интерактивно участвовать в мире, как мы могли бы представить себе системы ИИ. Вместо этого эти машины будут вести себя одинаково каждый раз, когда сталкиваются с одной и той же ситуацией. Это может быть очень полезно для обеспечения надежности системы ИИ: вы хотите, чтобы ваш автономный автомобиль был надежным водителем. Но плохо, если мы хотим, чтобы машины действительно взаимодействовали с миром и реагировали на него. Эти самые простые системы ИИ никогда не будут скучать, или интересоваться, или грустить.
Тип II AI: ограниченная память
Этот класс типа II содержит машины могут заглянуть в прошлое. Самостоятельные автомобили уже делают это. Например, они наблюдают скорость и направление других автомобилей. Это не может быть сделано в одно мгновение, а скорее требует идентификации конкретных объектов и мониторинга их с течением времени.
Эти наблюдения добавляются к предварительно запрограммированным представлениям о мире для автомобилей, которые также включают разметку полосы движения, светофоры и другие важные элементы, такие как повороты на дороге. Они включаются, когда автомобиль решает, когда сменить полосу движения, чтобы не отрезать другого водителя или не ударить по соседней машине.
Но эти простые сведения о прошлом являются лишь временными. Они не сохраняются как часть автомобильной библиотеки опыта, которой он может научиться, как человеческие водители накапливают опыт за рулем.
Итак, как мы можем создавать системы ИИ, которые создают полное представление, помнят их опыт и учатся справляться с новыми ситуациями? Брукс был прав в том, что это очень сложно сделать. Мои собственные исследования методов, вдохновленных эволюцией Дарвина, могут начать компенсировать человеческие недостатки, позволив машинам создавать свои собственные представления.
Тип III AI: теория разума
Мы можем остановиться здесь и назвать этот момент важным разрывом между машинами, которые у нас есть, и машинами, которые мы будем строить в будущем. Однако лучше быть более конкретным, чтобы обсудить типы представлений, которые должны формировать машины, и о чем они должны быть.
Машины следующего, более продвинутого класса формируют представления не только о мире, но и о других агентах или сущностях в мире. В психологии это называется «теорией разума» - понимание того, что люди, существа и объекты в мире могут иметь мысли и эмоции, которые влияют на их собственное поведение.
Это имеет решающее значение для того, как мы, люди, сформировали общества, потому что они позволили нам иметь социальные взаимодействия. Без понимания мотивов и намерений друг друга и без учета того, что кто-то еще знает обо мне или об окружающей среде, совместная работа в лучшем случае трудна, а в худшем невозможна.
Если системы ИИ действительно когда-нибудь будут ходить среди нас, они должны будут понимать, что у каждого из нас есть мысли, чувства и ожидания относительно того, как с нами будут обращаться. И им придется соответственно корректировать свое поведение.
Тип IV AI: Самосознание
Последний этап разработки ИИ - создание систем, которые могут формировать представления о себе. В конечном счете, мы, исследователи ИИ, должны не только понимать сознание, но и создавать машины, которые его имеют.
Это, в некотором смысле, расширение «теории разума», которой обладает искусственный интеллект III типа. Сознание также называется «самосознание» по причине. («Я хочу этот предмет» - это совсем другое утверждение, чем «Я знаю, что хочу этот предмет».) Сознательные существа осознают себя, знают о своих внутренних состояниях и способны предсказывать чувства других. Мы предполагаем, что кто-то, гудящий позади нас в пробке, злится или нетерпелив, потому что именно так мы чувствуем себя, когда мы гудим на других. Без теории ума мы не могли бы делать такие выводы.
Хотя мы, вероятно, далеки от создания самоосознающих машин, мы должны сосредоточить свои усилия на понимании памяти, обучении и способности принимать решения на основе прошлого опыта. Это важный шаг для понимания человеческого интеллекта самостоятельно. И очень важно, если мы хотим проектировать или развивать машины, которые более чем исключительны в классификации того, что они видят перед ними.
Аренд Хинце, доцент кафедры интегративной биологии, компьютерных наук и инженерии, Университет штата Мичиган