Kitabı oku: «Власть роботов. Как подготовиться к неизбежному», sayfa 2
Интеллект как электричество
Аналогия с электричеством уместна, постольку-поскольку она отражает будущую повсеместность и общедоступность искусственного интеллекта и тот факт, что он в конечном счете затронет и преобразует практически все стороны нашей жизни. Однако между этими двумя технологиями имеются принципиальные различия. Электричество – однородный товар широкого потребления, не изменяющийся как в пространстве, так и во времени. Где бы ни находились вы или компания – поставщик электроэнергии, ресурс, к которому вы получаете доступ через систему электроснабжения, в сущности, один и тот же. Электроэнергия, предлагаемая сегодня потребителям, почти не отличается от той, которую можно было получить в 1950 году. Искусственный интеллект намного менее однороден и неизмеримо более динамичен. Он обеспечит появление бесчисленного множества непрерывно меняющихся возможностей и применений и будет сильно варьировать в зависимости от конкретного поставщика этой технологии. Как будет показано в главе 5, искусственный интеллект продолжит неустанно развиваться, наращивая мощь и все больше приближаясь к интеллекту человека, а когда-нибудь, возможно, превзойдет его.
Если электричество дает энергию, обеспечивающую функционирование других инноваций, то ИИ предоставляет доступ к интеллекту, включая способность решать задачи, принимать решения, а когда-нибудь, по всей видимости, и умение мыслить, изобретать и выдвигать новые идеи. Электричество может питать машину, снижающую трудозатраты, а ИИ сам по себе является трудосберегающей технологией. Его распространение в экономике окажет колоссальное воздействие на трудовые ресурсы и на структуру компаний и организаций.
Постепенно превращаясь в универсальный общедоступный ресурс, искусственный интеллект сформирует будущее во многом так же, как электричество заложило фундамент современной цивилизации. Подобно тому как здания и другие инфраструктурные объекты проектируются и строятся в привязке к существующей сети электроснабжения, перспективная инфраструктура изначально будет разрабатываться с расчетом на использование возможностей ИИ. Этот принцип не ограничится физическими структурами и преобразует практически все аспекты экономики и общества. Новые фирмы и организации с момента своего создания будут ориентированы на использование возможностей ИИ. Искусственный интеллект станет важнейшим компонентом любой будущей бизнес-модели. Наши политические и социальные институты также изменятся с тем, чтобы встроить в себя этот универсальный ресурс и опираться на него.
Из всего этого следует, что ИИ в конечном счете станет таким же распространенным, как и электричество, но никогда не будет обладать той же стабильностью или предсказуемостью. Он всегда будет несоизмеримо более динамичной и подрывной силой, способной перевернуть все, чего коснется. В конце концов, интеллект – это основополагающий ресурс, фундаментальная способность, стоящая за всем, когда-либо созданным людьми. Трудно представить себе более значимое изменение, чем превращение этого ресурса в нечто повсеместно доступное в физическом и материальном отношении.
Программно-аппаратная инфраструктура ИИ
Как любому общедоступному ресурсу, искусственному интеллекту потребуется базовая инфраструктура, сеть каналов предоставления этой технологии. Она начинается, конечно, с обширной вычислительной инфраструктуры, которая уже существует, включая сотни миллионов портативных и настольных компьютеров, а также серверы мощных дата-центров и быстро растущую вселенную мобильных устройств с еще более впечатляющими возможностями. Эффективность этой распределенной вычислительной платформы как средства доставки ИИ радикально увеличилась с появлением широкого набора аппаратных и программных средств, специально разработанных для оптимизации глубоких нейронных сетей.
Это развитие началось с того момента, когда выяснилось, что определенные графические микропроцессоры, использовавшиеся в первую очередь для поддержки видеоигр, являются мощным ускорителем для приложений, связанных с глубоким обучением. Графические процессоры изначально создавались с целью ускорения вычислений, необходимых для почти мгновенной визуализации графики высокого разрешения. С 1990-х годов эти специализированные компьютерные чипы играют важную роль в высококачественных игровых приставках, в частности Sony PlayStation и Microsoft Xbox. Графические процессоры оптимизированы для быстрого параллельного выполнения огромного числа вычислений. Если у центрального процессора, обеспечивающего работу вашего ноутбука, может быть два или, возможно, четыре вычислительных «ядра», то современный высококлассный графический процессор, скорее всего, имеет тысячи специализированных ядер, которые способны одновременно выполнять расчеты с высокой скоростью. Когда исследователи обнаружили, что вычисления, необходимые для приложений глубокого обучения, в целом аналогичны тем, что используются для воспроизведения графики, графические процессоры быстро превратились в основную аппаратную платформу искусственного интеллекта.
Этот переход стал ключевым фактором, открывшим дорогу революции в сфере глубокого обучения в 2012 году. В сентябре того года команда исследователей ИИ из Торонтского университета привлекла внимание индустрии информационных технологий к глубокому обучению, продемонстрировав подавляющее превосходство на состязании по распознаванию визуальных образов ImageNet Large Visual Recognition Challenge – ежегодном мероприятии, посвященном машинному зрению. Если бы победившая команда не использовала графические процессоры для ускорения своей глубокой нейронной сети, ее решение вряд ли было бы достаточно эффективным, чтобы обеспечить победу. Мы ближе познакомимся с историей глубокого обучения в главе 4.
Команда из Торонтского университета использовала графические процессоры производства NVIDIA, компании, основанной в 1993 году и занимающейся исключительно разработкой и выпуском ультрасовременных графических чипов. После состязания ImageNet 2012 года и последовавшего широкого признания мощного синергетического эффекта соединения глубокого обучения и графических процессоров NVIDIA резко изменила траекторию своего движения, превратившись в одну из самых значимых технологических компаний, связанных с развитием искусственного интеллекта. Свидетельством того, что революция в области глубокого обучения свершилась, стала рыночная стоимость компании: с января 2012 года по январь 2020-го акции NVIDIA выросли более чем на 1500 %.
После того как проекты, связанные с глубоким обучением, перешли на графические процессоры, исследователи ИИ из ведущих технологических компаний начали разрабатывать программные средства, способные дать толчок созданию глубоких нейронных сетей. Google, Facebook и Baidu выпустили нацеленные на глубокое обучение программы с открытым исходным кодом, которые можно было бесплатно скачивать, использовать и обновлять. Самой широко используемой платформой является TensorFlow компании Google, выпущенная в 2015 году. TensorFlow – это комплексная программная платформа для глубокого обучения, предлагающая как исследователям, так и инженерам, разрабатывающим практические приложения, оптимизированный код для реализации глубоких нейронных сетей, а также разнообразные инструменты, увеличивающие эффективность разработок. Такие пакеты, как TensorFlow и PyTorch, конкурирующая платформа от Facebook, освобождают исследователей от необходимости писать и тестировать программный код, разбираясь в тонкостях, и позволяют сосредоточиться на задачах более высокого уровня при построении систем.
В процессе революции в области глубокого обучения NVIDIA и некоторые ее конкуренты перешли к разработке еще более мощных микропроцессоров, специально оптимизированных для задач глубокого обучения. Intel, IBM, Apple и Tesla сегодня создают компьютерные чипы, которые ускоряют вычисления, необходимые глубоким нейронным сетям. Чипы для глубокого обучения находят применение в бесчисленных устройствах, включая смартфоны, беспилотные автомобили и роботов, а также высокопроизводительные серверы. В результате появилась постоянно расширяющаяся сеть устройств, разработанных для поддержки искусственного интеллекта. В 2016 году Google объявила о создании собственного чипа, который назвала тензорным процессором. Эти процессоры разработаны специально для оптимизации приложений глубокого обучения, построенных на платформе TensorFlow. Первоначально Google использовала новые чипы в собственных дата-центрах, но с 2018 года их стали встраивать в серверы облачных вычислений компании. В результате клиенты, пользующиеся облачным сервисом Google, получили доступ к самой передовой функции глубокого обучения, что, похоже, и привело к доминированию этого канала распространения искусственного интеллекта.
Конкуренция известных производителей микропроцессоров и новой поросли стартапов за долю быстро растущего рынка искусственного интеллекта вызвала в технологической сфере шквал инноваций и всплеск деловой активности. Некоторые исследователи открывают совершенно новые направления в сфере разработки чипов. Специализированные чипы для глубокого обучения, созданные на основе графических процессоров, оптимизируются с целью ускорения ресурсоемких математических вычислений, выполняемых программами, которые поддерживают глубокие нейронные сети. Новый класс чипов в значительно большей мере имитирует работу мозга, позволяя урезать аппетиты требующего слишком много ресурсов программного слоя и реализовать нейронную сеть на аппаратной основе.
Разрабатываемые «нейроморфные» чипы воплощают аппаратные аналоги нейронов непосредственно в кремнии. IBM и Intel вложили значительные средства в исследования нейроморфных вычислений. Например, экспериментальные чипы Loihi разработки Intel используют 130 000 аппаратных нейронов, каждый из которых может связываться с тысячами других10. Одно из важнейших преимуществ ухода от массированных программных вычислений – это энергоэффективность. Человеческий мозг, далеко превосходящий своими возможностями любой существующий компьютер, потребляет лишь около 20 Вт – существенно меньше, чем средняя лампа накаливания. В отличие от него, системы глубокого обучения на основе графических процессоров требуют очень много электричества, и, как будет показано в главе 5, их масштабирование при таком энергопотреблении, скорее всего, невозможно. Нейроморфные чипы, конструкция которых восходит к нейронной сети головного мозга, гораздо менее прожорливы. Intel заявляет, что в некоторых модификациях ее чипы Loihi до 10 000 раз более энергоэффективны, чем традиционные микропроцессоры. После запуска коммерческого производства эти чипы, скорее всего, быстро найдут применение в мобильных и других устройствах, для которых важна энергоэффективность. Ряд специалистов в области ИИ идут намного дальше в своих прогнозах, полагая, что нейроморфные чипы – это будущее искусственного интеллекта. Например, по мнению исследовательской фирмы Gartner, нейроморфные структуры вытеснят графические процессоры в качестве основной аппаратной платформы ИИ к 2025 году11.
Облачные вычисления как основная инфраструктура ИИ
Современная индустрия облачных вычислений зародилась в 2006 году с вводом в действие платформы Amazon Web Services, или AWS. Amazon, опираясь на свой опыт создания и обслуживания гигантских дата-центров для поддержки онлайновой торговли, решила продавать широкому кругу клиентов гибкий доступ к вычислительным ресурсам. В 2018 году AWS обслуживала более 100 дата-центров в девяти странах мира12. Рост облачных сервисов Amazon и ее конкурентов поражает воображение. Согласно недавнему исследованию, сегодня 94 % организаций, от транснациональных корпораций до мелких и средних фирм, пользуются облачными вычислениями13. К 2016 году AWS росла настолько быстро, что новые вычислительные ресурсы, добавляемые Amazon к своей системе каждый день, были сопоставимы со всеми возможностями компании на конец 2005 года14.
До появления облачных провайдеров фирмам и организациям приходилось покупать и обслуживать собственные серверы и программное обеспечение и иметь команду высокооплачиваемых специалистов для поддержки и апгрейда систем. Благодаря облачным вычислениям значительная часть этих задач отдается на аутсорсинг таким провайдерам, как Amazon, способным обеспечить эффективность благодаря эффекту масштаба. Облачные серверы обычно располагаются в огромных зданиях площадью сотни тысяч квадратных метров, стоимостью больше миллиарда долларов. Доступ к облачным сервисам часто предоставляется по запросу, когда клиент пользуется вычислительными мощностями, хранением данных и приложениями столько, сколько нужно, и платит только за потребленные ресурсы.
Несмотря на огромный физический размер зданий для размещения облачных серверов, все там настолько автоматизировано, что нередко обслуживается поразительно малочисленным персоналом. Сложные алгоритмы, управляющие практически всеми процессами, обеспечивают уровень точности, недостижимый при непосредственном контроле человека. Даже потребление электроэнергии – оно огромно – и отвод большого количества тепла, выделяемого десятками тысяч серверов, во многих случаях оптимизируются непрерывно. Одной из первых практических реализаций разработок компании DeepMind в области ИИ стала система глубокого обучения, способная оптимизировать работу систем охлаждения в дата-центрах Google. DeepMind заявляет, что ее нейронная сеть, которая обучалась на массиве данных от сенсоров, размещенных во всех помещениях дата-центра Google, смогла почти на 40 % сократить расход энергии на охлаждение15. Алгоритмическое управление дает реальный выигрыш. Как показало исследование, отчет о котором был опубликован в феврале 2020 года, «если объем вычислений, выполняемых дата-центрами, вырос с 2010 по 2018 год примерно на 550 %, то потребление энергии увеличилось за тот же период лишь на 6 %»16. Разумеется, автоматизация влияет на потребность в персонале. Переход к облачным вычислениям и последовавшее за ним исчезновение огромного числа рабочих мест для технических специалистов, когда-то обслуживавших вычислительные ресурсы в тысячах организаций, вероятно, внесли существенный вклад в прекращение стремительного роста занятости в технологической сфере, наблюдавшегося в конце 1990-х годов.
Бизнес-модель на основе облачных вычислений очень прибыльна, и между основными провайдерами идет острая конкуренция. AWS – самое прибыльное направление деятельности Amazon: прибыли от него намного превосходят все, что компания зарабатывает на электронной торговле. В 2019 году прибыль от AWS выросла на 37 %, достигнув $8,2 млрд, а в целом на облачный сервис приходится около 13 % прибыли компании17. Платформа AWS доминирует на рынке, занимая около трети глобального объема облачных вычислений. Azure, служба Microsoft, созданная в 2008 году, и Google Cloud Platform, введенная в действие в 2010 году, также занимают значительные доли на рынке. IBM, китайский гигант интернет-торговли Alibaba и Oracle столь же важные игроки.
Правительственные структуры сегодня в той же мере зависят от облачных вычислений, что и предприятия. В 2019 году сложности и подковерная борьба, неизбежные в этой сфере, оказались в центре всеобщего внимания из-за неожиданной политизации проекта Пентагона JEDI. JEDI, что расшифровывается как «Объединенная оборонная инфраструктура» (Joint Enterprise Defense Infrastructure), – это десятилетний контракт стоимостью $10 млрд на хранение огромных объемов информации и предоставление программных ресурсов и возможностей ИИ Министерству обороны США. Первый скандал разразился в Google, когда ее сотрудники, большинство которых имеют взгляды, весьма близкие к крайне левому полюсу политического спектра, воспротивились планам компании участвовать в тендере по оборонному контракту. Из-за протестов собственных работников корпорации пришлось сойти с дистанции – Google выбыла из конкурса всего за три дня до подачи заявок на участие в создании JEDI18.
В конце концов Пентагон отдал проект Microsoft Azure, но Amazon, считавшаяся наиболее вероятным претендентом на победу вследствие лидирующего положения в этой области, немедленно заявила, что это решение политически мотивировано. В декабре 2019 года Amazon подала иск, в котором охарактеризовала это решение как необъективное и продиктованное явной враждебностью президента Дональда Трампа к генеральному директору Amazon Джеффу Безосу. Безосу также принадлежит The Washington Post, критически относившаяся к администрации Трампа. В феврале 2020 года федеральный судья наложил судебный запрет, временно заблокировавший передачу контракта Microsoft19. Спустя месяц Министерство обороны объявило, что заново обдумает свое решение20.
Все это ясно показывает, насколько яростной и в некоторых случаях политизированной будет дальнейшая битва за рынок облачных вычислений. В центре конкурентной борьбы находится искусственный интеллект, обретающий все большую важность для продуктов, предлагаемых ведущими провайдерами облачных вычислений. Коммерческое значение глубокого обучения первыми продемонстрировали технологические гиганты, создав передовые сервисы для конечных потребителей и бизнеса. Например, нейронные сети, созданные на базе специализированного оборудования во внутренних дата-центрах, обеспечивают работу таких служб, как Alexa от Amazon, Siri от Apple и Google-сервисов Assistant и Translate. На сегодняшний день приложения на основе глубокого обучения далеко ушли от этой отправной точки, полностью переместившись в облачные сервисы и став одним из важнейших средств дифференциации провайдеров. Например, Google воспользовалась популярностью платформы TensorFlow и предложила клиентам своего облачного сервиса прямой доступ к мощному оборудованию на основе тензорных процессоров. Amazon также поддерживает функцию глубокого обучения, используя новейшие графические процессоры и давая возможность своим клиентам пользоваться приложениями, созданными на основе TensorFlow или других платформ машинного обучения. Amazon даже утверждает, что 85 % облачных ИИ-приложений, разработанных с помощью TensorFlow, работают на базе ее собственной платформы AWS21.
Ведущие компании, занимающиеся облачными сервисами, постоянно предлагают все более гибкие и совершенные инструменты и быстро реагируют на любое преимущество, достигнутое конкурентами. Вот один из примеров инноваций. В марте 2020 года Intel создала экспериментальную нейроморфную вычислительную систему, доступ к которой можно получить через облако. Эта система, состоящая из 768 процессоров Loihi, разработанных Intel по образцу человеческого мозга, содержит 100 млн аппаратных нейронов – примерно столько же, сколько мозг мелкого млекопитающего22. Если подобная архитектура окажется эффективной, то вскоре, безусловно, развернется битва на поле нейроморфности между ведущими поставщиками облачных вычислений. Результатом попыток компаний превзойти друг друга и увеличить долю растущего рынка вычислительных ресурсов, ориентированных на ИИ, стало появление облачной экосферы, изначально строившейся с целью предоставления доступа к искусственному интеллекту.
Миллиард долларов, вложенный Microsoft в 2019 году в компанию по изучению ИИ OpenAI, которая наряду с принадлежащей Google DeepMind является лидером в расширении границ глубокого обучения, подчеркивает естественную синергию облачных вычислений и искусственного интеллекта. OpenAI сможет использовать вычислительные ресурсы, принадлежащие службе Azure, – это чрезвычайно важно в свете ее стремления создавать все более крупные нейронные сети. Только облако может предоставить огромные вычислительные мощности, требующиеся OpenAI для исследований. Microsoft, со своей стороны, получает доступ к практическим инновациям, появляющимся в процессе работы OpenAI над созданием универсального искусственного интеллекта. Надо полагать, что это приведет к появлению приложений и возможностей, которые можно будет встроить в облачные сервисы Azure. Не менее важно и то, что бренд Azure выигрывает от ассоциации с одним из мировых лидеров в исследовании ИИ, а это улучшает позиции Microsoft в конкуренции с Google – признанным лидером в области ИИ – отчасти благодаря владению компанией DeepMind23.
Эта синергия выходит далеко за рамки данного примера. Почти ни одно значимое начинание в области ИИ, от деятельности университетских исследовательских лабораторий до стартапов, занимающихся ИИ, и практических применений машинного обучения, разрабатываемых крупными компаниями, не обходится без использования этого универсального ресурса. Облачные вычисления, пожалуй, важнейший инструмент превращения ИИ в ресурс, который однажды станет столь же вездесущим, как и электричество. Фей-Фей Ли, архитектор базы данных ImageNet и конкуренции, ставшей катализатором революции в области глубокого обучения, временно покидала свою нынешнюю должность в Стэнфорде, чтобы возглавить научные разработки Google Cloud с 2016 по 2018 год. Вот как она это объяснила: «Что касается распространения такой технологии, как ИИ, то лучшая и самая большая платформа для этого – облако, поскольку никакие другие вычислительные ресурсы ни на какой другой платформе, изобретенной человечеством, не имеют такого огромного охвата. Одна лишь Google Cloud в любой момент времени поддерживает или обслуживает миллиарды людей»24.