Перейти к основному содержанию
Прямой эфир

Навстречу искусственному интеллекту

Что ждет компьютерные технологии в ближайшем будущем
0
Навстречу искусственному интеллекту
Озвучить текст
Выделить главное
вкл
выкл

Мы привыкли, что каждый год разработчики радуют нас все более мощными и производительными компьютерами. Мегагерцы стремительно сменяются гигагерцами, а терабайты бесцеремонно теснят гигабайты. Однако «золотой век» кремниевых вычислений постепенно клонится к закату.

Уже сегодня разработчикам приходится идти на серьезные ухищрения, чтобы повысить частоту новых процессоров. Все большее число специалистов признают, что современные технологии производства компьютеров практически уперлись в потолок своих возможностей.

Проблемы эксафлопса

Тут можно вспомнить пресловутую «гонку за эксафлопсом». Именно в этих единицах с таким несколько смешным названием измеряют производительность суперкомпьютеров. Петафлопсный рубеж был преодолен еще в 2008 году, тогда же оборонщики США обозначили очередную цель — достигнуть в 2019 году уровня в 1 эксафлопс.

С приближением к заветной цифре растет список проблем, львиная доля которых пока очень далека от решения. Так, чем больше у компьютера узлов, тем меньше его надежность. В нынешних реалиях эксафлопсные компьютеры рискуют ломаться едва ли не непрерывно, что делает их эксплуатацию весьма хлопотным занятием. Как считают специалисты, с ростом количества ядер эффективность их совместной работы непрерывно снижается. Пока нет никаких способов программирования эксафлопсных систем с миллионами параллельных ядер. Ученым понадобятся не только новые языки, но и смена парадигм программирования.

Впрочем, основная проблема заключается в количестве потребляемой энергии. Ситуация складывается безрадостная. Если идти по тому же пути, просто расширяя современную архитектуру, то скоро мы упремся в совершенно непреодолимые препятствия. Эксафлопсные компьютеры будут требовать количества энергии, которого бы хватило для нужд целого города. Какие же альтернативы разработчики готовы предложить нам в самом недалеком будущем?

Прощай загрузка

Ближайшие годы вполне могут пройти под знаком «мемристорной» революции. Мемристор — это тот же самый резистор, но обладающий одним интересным свойством. Если подаваемое на него напряжение превышает какой-то порог, то сопротивление мемристора начинает меняться.

Теория мемристоров была разработана профессором Леоном Чуа еще в 1971 году, однако первый лабораторный образец на двуокиси титана был создан компанией Hewlett-Packard лишь шесть лет назад. Устройства удалось сконструировать только сейчас, потому что эффект изменения сопротивления возникает лишь в том случае, если размеры мемристора очень малы, порядка десяти нанометров. Технологий же создания столь малых устройств во времена Чуа попросту не существовало.

«Небольшие размеры мемристоров являются ключевым их преимуществом, — отмечает кандидат технических наук Михаил Тарков, старший научный сотрудник Института физики полупроводников Сибирского отделения РАН. — Они очень быстро срабатывают и расходуют мало энергии на изменение своих параметров. Но главное — эти изменения остаются даже при исчезновении напряжения. В итоге мы получаем полноценную энергонезависимую память. На сеть мемристоров можно записывать память с плотностью упаковки в 10–100 раз выше, чем сейчас. Это позволит создавать очень компактные устройства».

Операционная система на мемристорной памяти не будет требовать времени на загрузку. Компьютер будет включаться мгновенно с того момента, на котором вы закончили работу. Это же позволит отказаться от некоторых компонентов современного ПК, сделав компьютеры компактней и дешевле.

Планировалось, что накопители на базе мемристоров появятся еще в 2013 году, однако затем их выпуск был отложен до 2014-го. Поговаривают, что вопросы начала производства лежат уже не в научной, а в коммерческой плоскости — компании опасаются слишком резкого и кардинального обрушения рынка современной флеш-памяти.

Еще одной перспективной областью применения мемристоров станут нейронные сети. По своим свойствам они очень похожи на синапсы и могут стать их аналогом для искусственных нейросетей.

Старый друг или новых два?

Что касается фундаментальных подходов к проектированию будущих компьютеров, то первый, самый очевидный и напрашивающийся вариант — идти по проторенной дорожке «кремниевых» вычислений. На этот счет высказывается много идей, многие из которых довольно сложны.

Существуют разработки российских и американских ученых, которые позволят, используя современную архитектуру, увеличить производительность компьютеров на 3–4 порядка. Но в любом случае эти варианты не являются панацеей и лишь оттянут неизбежный конец вычислительных устройств современного типа.

Одним из самых перспективных направлений развития вычислительной техники являются искусственные нейронные сети, которые устроены по образцу человеческого мозга. С помощью нейронных сетей возможно решать типичные для человека, но трудно доступные для современных компьютеров задачи, например, обобщение и абстрагирование информации.

История нейросетей воистину уникальна. За 70 лет своего существования они испытали невероятное количество провалов и пиков популярности, пройдя путь от теоретических моделей до широкого практического применения. В прошлом месяце журнал Science опубликовал отчет IBM о результатах длительной работы над созданием и испытаниями нового нейронного чипа, способного анализировать видеозапись, идентифицировать и различать «увиденные» на ней визуальные объекты. Новый чип состоит из 4096 нейросинаптических ядер и потребляет в 176 тыс. раз меньше энергии, чем обычный универсальный микропроцессор, и в 769 раз меньше, чем современный нейронный мультипроцессор.

«Наработки IBM по части нейрокомпьютеров приближают тот момент, когда человек сможет создать нейронную сеть, по сложности сопоставимую с мозгом человека, — уверен кандидат физико-математических наук Иван Матвиенко. — В человеческом мозге около 100 миллиардов нейронов, а чип IBM моделирует 1 миллион нейронов. Получается, что сеть из 100 тысяч таких чипов по числу нейронов уже сопоставима с мозгом человека».

Впрочем, в чистом виде нейрокомпьютеры малоэффективны. При обсуждениях ближайших перспектив наиболее популярным вариантом считаются гибридные модели компьютеров. Появляется все больше устройств, которые созданы для каких-то специфических задач, и с помощью нейросетей нецелесообразно пытаться решить их все. Они больше заточены на распознавание визуальной информации, прогнозирование и ряд других узкоспециализированных вещей.

При этом большинство исследователей не склонны называть разработку IBM прорывом. «Это, скорее, шаг на пути оптимизации вычислений нейросетевых алгоритмов, — считает кандидат физико-математических наук Михаил Бурцев, заведующий Лабораторией нейроинтеллекта и нейроморфных систем НИЦ «Курчатовский институт». — Подобные ускорители нейровычислений разрабатываются давно, и достижение IBM в том, что они предложили архитектуру процессора, позволяющую значительно снизить энергопотребление. Также предложенное решение позволяет масштабировать размер сети, что открывает путь для применения подобных процессоров в центрах обработки данных крупнейших интернет-компаний, как, например, Google, для классификации изображений и видео».

Многим ученым наилучшим вариантом видится использование нейрочипов в гибридном сопроцессоре. Такой гибридный компьютер сможет одинаково эффективно решать очень широкий спектр задач. В ближайших планах разработчиков — создание компьютеров-гибридов, сочетающих традиционную архитектуру фон Неймана и архитектуру TrueNorth, работающую на базе созданных IBM нейронных чипов.

«Думаю, в дальнейшем IBM начнет производить платы, на которых будет размещать много таких чипов, — уверен Михаил Тарков. — Потом ее можно просто вставить в обычный персональный компьютер по аналогу обычной графической платы и использовать для высокопараллельной обработки информации. На практике это даст большое повышение производительности».

Подобные разработки ведутся и в России, но для появления промышленных образцов понадобится еще несколько лет. При этом полученные чипы будут скорее всего уступать айбиэмовскому.

Или молекулы…

Если нейрокомпьютеры давно стали реальностью, то квантовые и молекулярные пока балансируют на грани теории и первых робких экспериментов. Поясним, что молекулярным называют компьютер, использующий для работы вычислительные возможности молекул. Одним из его видов является ДНК-компьютер, в котором под эти цели приспособлены молекулы ДНК.

«В ДНК-вычислениях потребление энергии при работе с информацией намного ниже, чем у современных компьютеров, — отмечает кандидат физико-математических наук Андрей Чернявский, старший научный сотрудник Физико-технического института РАН. — Сейчас работа с ДНК довольно популярна, поэтому велика вероятность, что можно ожидать прорыва в этой области».

Впрочем, пока перед разработчиками стоит масса нерешенных проблем. На данный момент молекулярные компьютеры находятся на стадии игрушечных моделей, которые в состоянии выполнять несколько простых операций, например играть в крестики-нолики. В январе 2013 года исследователи смогли записать в ДНК-коде несколько фотографий JPEG, набор шекспировских сонетов и звуковой файл, но до масштабных вычислений дело пока не дошло.

…или кванты

Чуть более обнадеживающе обстоят дела с квантовым компьютером. В последние годы много шума наделал проект канадской компании D-Wave System, объявившей о создании подобного устройства. Продукцией предприимчивого производителя уже успели обзавестись Lockheed Martin и Университет Южной Калифорнии. Впрочем, изрядная доля научного сообщества со скепсисом отнеслась к разработкам канадцев.

«То, что есть у D-Wave, — это не квантовый компьютер, и никто до сих пор не знает, есть ли там ускорение, — уверен Андрей Чернявский. — Там есть квантовые эффекты, но они низкие и недостаточны для универсальных квантовых вычислений. Они, несомненно, решают какие-то практические задачи, но назвать это квантовым компьютером нельзя».

В качестве даты создания полноценного квантового компьютера большинство исследователей называют 2025–2030 годы. «Производительность квантового компьютера нельзя оценивать теми же рамками, что у современных вычислительных, — отметил Андрей Чернявский. — В них возможно так называемое экспоненциальное ускорение. То, что будет на квантовом компьютере даже с медленными частотами считаться несколько часов, на самом мощном современном суперкомпьютере заняло бы время, сравнимое с возрастом Вселенной».

Квантовые вычисления будут отличаться высокой степенью параллельности. Например, время расшифровки кода, зашифрованного 128-битным и 256-битным ключами, на квантовом компьютере будет примерно одинаковым, в то время как для кремниевых компьютеров расшифровка 256-битного кода намного более сложная задача

С помощью квантового компьютера ученые смогут решать те проблемы, которые для обычного компьютера просто невыполнимы из-за совершенно других принципов алгоритмов. Одна из важнейших задач квантового компьютера это та, от которой, собственно, этот вид вычислительной техники и произошел. Он позволит моделировать квантовые системы, что на обычных компьютерах полноценно невозможно. Это окажет сильное влияние на развитие химии, фармацевтики и технологий изготовление наноматериалов.

Как и в случае с современными компьютерами, первые квантовые машины будут до невозможности огромны, поскольку требуют сильного охлаждения. Но с развитием технологий есть серьезные надежды на их миниатюризацию. Ведь сами кубиты, так называют наименьший элемент хранения информации в квантовом компьютере, очень малы. Если ученые научатся работать с ними без дополнительного оборудования, то квантовые компьютеры не будут превышать размерами современные.

Что же касается будоражащей умы идеи создания искусственного аналога мозга человека, то это дело отдаленного будущего. Пока ученые даже не могут сойтись во мнении о самой возможности создания такого устройства.

Мозг для «терминатора»

Программисты и IT-инженеры всего мира давно мечтали о многопроцессорном чипе, который копировал бы нейронную структуру человеческого мозга и принципы ее функционирования. С ростом плотности элементов в микросхемах решение этой задачи казалось все более возможным, и вот компания IBM представила процессор TrueNorth с рекордным на сегодняшний день количеством транзисторов (5,4 млрд).

Напомним, история эволюции современных компьютеров берет начало с набора принципов, известного как «архитектура фон Неймана». Так звали одного из создателей первого в мире лампового компьютера ЭНИАК (был запущен в США осенью 1945 года). Базовым правилом той архитектуры был принцип однородности памяти, который гласил: «Команды и данные хранятся в одной и той же памяти и внешне неразличимы. Распознать их можно только по способу использования; то есть одно и то же значение в ячейке памяти может использоваться и как данные, и как команда, и как адрес в зависимости лишь от способа обращения к нему». В то время компьютеры представляли собой внушительные помещения с рядами шкафов, забитых огромным количеством электронных ламп или механических реле. Создание отдельных видов памяти привело бы к усложнению и так громоздкой и дорогостоящей аппаратной части. Поэтому архитектура фон Неймана была принята в качестве компьютерного стандарта на многие годы.

Но такой принцип работы создал и так называемое узкое место архитектуры фон Неймана. Из-за того, что память используется одновременно для записи и программ, и данных, они не могут быть доступны в одно и то же время. Поэтому процессор работает с гораздо меньшей скоростью, чем та, с которой он может работать.

Ожидается, что компьютеры, построенные на основе нейронных процессоров, будут лишены недостатков архитектуры фон Неймана. И они используют гораздо более сложную математику, чем двоичная, на которой работают все без исключения современные компьютеры. Работа «нейронов» TrueNorth приближена к той, которой занимаются биологические нейроны.

Проблема в том, что процессоры типа TrueNorth нуждаются не в программировании, а, скорее, в обучении. И до сих пор нет полной ясности в том, как они будут работать. До появления TrueNorth не существовало нейронных сетей с таким количеством элементов, а о принципах их работы ученые могли догадываться только по итогам компьютерного моделирования. А оно выполнялось на пусть даже очень производительных суперкомпьютерах, но выполненных на основе классической фон-неймановской архитектуры.

IBM ведет эту работу в рамках программы DARPA SyNAPSE, конечная цель которой — создать нейрокомпьютер, сравнимый с мозгом высших млекопитающих как по быстродействию и способностям к познанию, так и по компактности и энергоемкости. На мозг человека пока не замахиваются — кроме достаточного количества нейронов необходимо еще знать схему их соединения и «программу», которая ими управляет.

«Некоторые функции мозга вполне можно воспроизвести. Например, с вычислительными задачами компьютер справляется получше нас. Можно воссоздать также память, — считает Александр Каплан, заведующий лабораторией нейрофизиологии и нейроинтерфейсов биологического факультета МГУ. — Восприятие можно сделать — четче, лучше и с большим разрешением, чем мы имеем. Рано или поздно все это будет сделано. Но есть одна функция мозга, которую не удается воспроизвести техническими устройствами. Она очень простая по смыслу, но таинственная по содержанию. По-видимому, именно ради этой функции формировался и совершенствовался мозг. Эта функция — создание действующей модели внешнего мира или нашего внутреннего мира психических образов. Да, компьютеры стали сложными и будут еще сложнее и мощнее. Но они всегда будут работать только по тем правилам, которые изобрели их создатели».

Но пока компьютерщики и не замахиваются на то, чтобы создать разум, подобный человеческому. Наиболее вероятным считается объединение фон-неймановской архитектуры и нейронной. По крайней мере в ближайшей перспективе. Профессор Поль Меролла, руководитель проекта TrueNorth, сообщил, что в дальнейшем планируется работа по созданию компьютеров-гибридов, сочетающих обе концепции. Количество нейросинаптических ядер и синапсов будет увеличиваться, а спектр задач, поддающихся решению, расширяться. Несмотря на то, что до достижения главной цели ученых — создания искусственного аналога мозга высших млекопитающих — еще далеко.

Возможно, что последующие поколения нейронных чипов смогут послужить помощниками в определенных жизненных ситуациях. Поэтому перед создателями процессоров нового поколения сейчас стоят задачи более простые, чем создание по-человечески разумной машины.

Рассказывает Стив Хамм из IBM: «Я могу представить себе много применений для TrueNorth. Как насчет «умных» очков для слабовидящих людей? Очки смогут анализировать видео в реальном времени, чтобы помочь их владельцу избегать препятствий или даже идентифицировать людей, подсказывая важную информацию через наушники. Другой медицинский вариант использования — портативное устройство диагностики здоровья».

Автопроизводители смогут использовать чип для создания автопилотов для машин будущего. Сегодняшние экспериментальные автомобили на самом деле «не понимают» принципов вождения, как это делают люди. Они должны быть запрограммированы, чтобы отреагировать на любую ситуацию. Системы, основанные на этой технологии, смогут обучаться самостоятельно и реагировать на непредвиденные дорожные ситуации. Эксперт уверен в способности TrueNorth работать в смартфонах. Это может быть система распознавания лиц для быстрой и легкой идентификации пользователя. Или система распознавания загрязнения воздуха или утечки газа.

Впрочем, Intel — крупнейший в мире производитель микропроцессоров — весьма сдержанно отнесся к новациям IBM. Михаил Рыбаков, директор пресс-службы Intel Corporation в России и странах СНГ, заявил нам: «Intel поддерживает архитектуру, которую в свое время начал развивать, — x86 (используется в большинстве настольных и портативных компьютеров. — «Известия»). И пока мы не видим ей альтернатив в массовом производстве».

Петр Сапожников

Читайте также
Комментарии
Прямой эфир