Об ИИ без мифов. Путеводитель по истории Искусственного Интеллекта
То, что многочисленные рассуждения о возможностях AI на практике пока свелись к сугубо специализированным решениям, имеет вполне понятное объяснение. Возможности моделирования средствами искусственных нейронных сетей ограничены существующими компьютерными технологиями, для сравнения даже самые мощные GPU кластеры, совершенно ошибочно называемые суперкомпьютерами (компьютеры универсальны, а GPU-кластеры специализированы), насчитывают десятки тысяч, максимум сотни тысяч ядер. При этом мозг таракана состоит из 1 миллиона нейронов, лягушки – 16 миллионов. У более сложных существ мозг насчитывает миллиарды нейронов, что касается человека, то в его мозге примерно 85 миллиардов. На сотни тысяч ядер кластеры потребляют мегаватты энергии, а человеческий мозг – 20 ватт. Каким же надо быть безудержным оптимистом, чтобы говорить о реальной возможности сильного AI, превосходящего возможности человека? А ведь находятся!
До того, когда AI обретет потенциал, хотя бы как-то сопоставимый с самым примитивным живым мозгом еще очень далеко, на нынешнем уровне развития электроники просто не о чем говорить. Поэтому схема работы современной обучаемой AI-системы на нейронных сетях в некотором роде искусственна, в отличие от мозга даже простейших. Она разделена на два этапа, первый – training, как следует из названия на нем тренирует или обучает искусственную нейронную сеть, являющуюся грубой моделью мозга, а на втором обученная нейронная сеть переносится в другую сеть, этот процесс называется inference, что можно перевести логическим выводом иди умозаключением. В то же время мозг простейшего живого совмещает training с inference.
О компьютерах и AI
Даже при такой упрощенной схеме реализации AI классические компьютеры, построенные по ФНА с ограниченным количеством центральных процессоров (Central Processing Units, CPU) с задачей training не справляются. Фундаментальная причина заключается в том, что они строятся на процессорах, состоящих из ядер типа SISD (Single Instruction, Single data), то есть задуманы для обработки одного потока данных одним потоком инструкций, для распараллеливания число ядер может достигать нескольких десятков. Даже собранные вместе десятки мощных процессоров оказывается неспособными к моделированию работы мозга нейронной сетью с тысячами узлов, требуемой при решении задач CV и NLP. Временный выход из положения совершенно случайно нашелся в виде Graphics Processing Units (GPU), эти созданные для работы с графикой компьютерных игр процессоры относятся к типу SIMD (Single Instruction, Multiple Data), они состоят из тысяч небольших ядер, на них проще воспроизвести нейросеть и специализированный компьютер будет обладать большей производительностью. Сегодня большая часть задач training решается на GPU. Для inference обученная сеть чаще всего переносится на CPU или GPU, а также на программируемых матрицах (Field Programmable Gate Array, FPGA).
По оценкам аналитиков до 95 % всей процессорной нагрузки, связанной с AI, приходится на inference, то есть на решение прикладных задач с использованием обученных нейросетей, сюда же входит Edge AI, так называют класс автономных систем, реализующих AI на оконечных устройствах. Как следствие, эта область является наиболее привлекательной для разработчиков новых процессорных архитектур. Преодолеть нынешнюю монополию GPU в задачах training если и удастся, то нескоро.
Есть несколько альтернативных разработок, часть из них попадает в категорию умных процессоров (Intelligence Processing Unit, IPU). Одну из них ведет компания GraphCore, пытающаяся создать аппаратными средствами графовую модель представления знаний. Компани Mythic стремится к объединению в памяти работы с цифровыми и аналоговыми данными. Значительное внимание привлекает к себе разработка компании Wave Computing, она дала своему процессору название DPU (Dataflow Processing Unit), из чего следует стремление революционизировать обработку потоковых данных.
О реальных перспективах AI
Как мы видим, реальные достижения не дают основания для избыточного оптимизма в оценке перспектив создания AI, сравнимого с человеческим или превосходящего его. До тех пор, пока компьютер остается программируемым устройством, он не сможет стать в полном смысле этого слова «умной машиной». Поэтому какой бы изощренной ни была программа, полученная с использованием машинного обучения, она останется всего лишь программой, вложенной в нейросеть, и найти в ней даже признаки сильного AI принципиально невозможно.
Удивительно то, что среди ученых, и менее удивительно, что среди футурологов, все же сохраняются убеждения в возможности создания AI за счет роста производительности компьютеров, что ошибочно связывается ими с законом Мура. В 2009 Генри Макграм, руководитель известного проекта Blue Brain прогнозировал, что в 2020 году будет создан «сильный AI», но в наступившем 2021 прогноз не оправдался. Пожалуй, самый известный из современных футурологов Рей Курцвейл в книге «Сингулярность близка» (The Singularity is Near, 2005) делал тот же прогноз на 2025 год, осталось недолго ждать.
Реальные перспективы применения AI связаны с автоматизацией, причем в большей степени с автоматизацией рутинных процессоров умственного труда и с созданием промышленных, транспортных, военных систем с повышенной степенью автономности.
AI и автоматизация
Настороженность, вызываемая в обществе перспективами внедрения AI, заставляет вспомнить, что с давних времен отношение людей к механизации, а в последующем и к автоматизации было сложным, ярчайший пример восстание луддитов в начале XIX века, они препятствовали внедрению машин в ходе промышленной революции в Англии, они считали, что машины станут причиной безработицы и выражали протест в погромах. На деле происходит обратное, с внедрением машин растет производство, что ведет к увеличению числа рабочих мест, однако страх перед автоматизацией не исчез. Противники нового утверждают: «Автоматизация это плохо, она убивает рабочие места и лишает нас будущего», на что сторонники отвечают: «Автоматизация это хорошо, она создает качественно новые рабочие места и это наше будущее», при этом и те, и другие понимают, что автоматизация неизбежна. За 200 лет область автоматизации распространилась от замены человека в простейших физических операциях до управления сложными системами, где требуется определенный интеллект. Внедрение AI – очередной шаг в этом направлении.
Слово «автоматизация» происходит от греческого «автоматос», значащего «действующий самостоятельно». Автоматизацию в ее традиционном индустриальном понимании связывают с наличием образной связи в контуре управления. Первый шаг в этом направлении сделал Джеймс Уатт, заменивший в 1788 году изобретенным им центробежным регулятором мальчика с веревкой, приставленного к паровой машине. За последующие два с половиной века было создано множество машин и систем, различающихся по степени вложенной в них разумности или интеллектуальности (intelligence). Сегодня сложилась следующая трехуровневая классификация автоматизированных систем по уровню их интеллектуальных способностей:
• Assisted Intelligence – системы со вспомогательным интеллектом, обладающие ограниченными способностями, могущие делать только то, что им предписано, они широко используются в многочисленных встроенных системах в диапазоне от простых бытовых устройств до крупных промышленных объектов. В эту же категорию попадают и умные вещи, и так называемые Smart Products, и умная окружающая среда (Smart Environment). Эти системы полностью или частично избавляют человека от физического труда.
• Augmented Intelligence – системы, интеллект которых служит вспомогательным средствам для человека, они могут избавлять от наиболее рутинной части умственного труда.
• Autonomous Intelligence – системы с автономным управлением, способные к самостоятельной деятельности. Это пока еще гипотетический класс систем, возможность создания такого типа остается недоказанной.