Баннер
Баннер
31.03.2015 16:17

Пейзаж с оленем и вертолетом

Автор  Игорь Лёвшин
Оценить
(0 голоса)

Иногда обсуждение ситуации в HPC-отрасли вызывает странные ассоциации. Мне, например, представился вдруг поселок на Крайнем Севере. Добраться до него можно двумя способами:

1. Олень.

2. Вертолет.

Если мы говорим о нашем, земном, то есть кремнии, то разговор обычно не покидает пределов тем многоядерных процессоров, ускорителей и неуклонного увядания закона Мура. Олени – неторопливые, надежные.

Если мы говорим об альтернативах, будущем, в разговор стремительно врываются квантовые компьютеры, занимая собой обычно все пространство беседы. Это вертолеты. Летают быстро, но когда еще будут?

Не видно на горизонте ни автобуса, ни снегохода, ни парохода, ни даже подводы, впряженной во владимирского тяжеловоза.

Но даже если они не видны, их следовало бы выдумать – из эстетических соображений, из законов композиции Большой Картины. Они все же имеются, но про них часто забывают.

Под водой – кораллы

Уже не первый год глобальное суперкомпьютерное сообщество пребывает в некотором нетерпении. Близкие к нулю изменения в верхней части списка TOP500 сочетаются с какими-то глубинными течениями, иногда довольно бурными.

Два крупнейших проекта Министерство энергетики США доверило триумвирату IBM–NVIDIA–Melanox. Как известно, IBM и так прекрасно чувствует себя в контексте списков TOP500. Новость в том, что будущие системы не будут использовать процессоры Intel и вообще архитектуру x86. Вычисления будут производить процессоры IBM POWER9, усиленные графическими ускорителями NVIDIA нового поколения – Volta, поддерживающими быстрые интерфейсы NVLink вместо привычных PCIe. Интерконнект обеспечит Mellanox.

Речь идет не просто о паре суперкомпьютеров в ряду других, а о двух системах, каждая из которых превысит по производительности 100 ПФлопс. Министерство выделило $300 млн на разработки и реализацию их в рамках программы Coral (Collaboration of Oak Ridge, Argonne, and Livermore – то есть охватывающей три важнейшие национальные лаборатории Министерства). Одну из них, в Окриджской лаборатории, назвали Summit, другую, в Ливерморской, – Sierra. Они должны быть запущены в 2017 году. В Аргоннской лаборатории еще не определились с архитектурой будущей системы.

Понятно, что такой разворот серьезнейшего заказчика в сторону архитектуры POWER может породить волны подражателей и проторить колею для будущих инсталляций. Но этим его значение не исчерпывается. Дело в том, что машины эти будут не просто мощные. Они позиционируются как data centric, то есть ориентированные на данные, а не на вычисления. Именно этим, как утверждается, был определен выбор. Мало того, что у них будет скорость передачи данных до 17 ПБ/с, главная цель таких архитектур – обработка возможно больших объемов данных непосредственно там, где данные расположены, вместо того чтобы идти по традиционному пути передачи данных в вычислительные узлы, где они обрабатываются, после чего возвращаются обратно в место хранения. Но насколько новые машины будут действительно data centric, еще предстоит понять.

Ребристые базы данных

Без упоминания Больших Данных сейчас вообще обходится мало какой большой проект, но в самом мире Big Data, ранее зачастую просто-напросто подразумевавшем Hadoop и MapReduce, начинают оформляться направления, названия которых будут на слуху уже в ближайшем, может быть, будущем. Например: то, что казалось частным случаем СУБД – графовые СУБД, – очень скоро вырастет из частного случая в нечто большее. В духе того, что происходило с реляционными СУБД, которые появились как частный случай, а стали почти синонимом СУБД. Во всяком случае, похоже, что каждая уважающая себя корпорация будет заводить у себя хотя бы одну графовую базу данных.

Если графовые базы данных наводнят большой бизнес, изменят не только софт, но и сами машины. Вспомним, что когда-то важнейшей частью бизнеса IBM было направление AS/400 – машин, у которых была своя, довольно оригинальная операционная система. На AS/400 никто не стал бы считать форму крыла автомобиля. Там было все оптимизировано под работу с реляционной СУБД DB2, так как реляционная СУБД была (и, в общем, так и осталась пока) ключевой составляющей бизнес-ПО. А это значит, что надо было поддержать в железе быстрые и надежные транзакции, определенные типы шифрования.

Если сейчас делать машину под работу с коммерческими графовыми БД огромных объемов, придется использовать даже другие интерконнекты: эффективное перемещение по ребрам графа требует совсем других способов передачи сообщений между вычислительными узлами.

Как будет по-русски IoT?

Если взглянуть на Большие Данные не с того края, где их обрабатывают, а с того, где их производят, то станут видны крупным планом такие ландшафты, как Интернет Вещей. Понятие вовсе не новое, но не слишком привычное: пока даже в профессиональных изданиях аббревиатуру IoT расшифровывают – для непонятливых читателей. В то же время никому не придет в голову расшифровывать «IT» в непрофильных изданиях, а «HPC» – в профильных. Между тем от IoT ждут больших новостей уже в 2015 году. С Интернетом Вещей, возможно, приключилось нечто вроде фальстарта. Еще во времена бурного подъема Java на каждом углу можно было слышать, что и лифт в офисе, и электрический чайник скоро получат свои IP-адреса. Чайники до сих пор прекрасно обходятся без IP, а в сознании массы IT-обывателей прочно поселилось представление, что Интернет Вещей будет состоять из чайников, общающихся с холодильниками. На самом деле будущее IoT связывают с Интернетом Вещей, делающих бизнес – в офисе и вне его. Маркетологи-аналитики тоже рассчитывают поживиться с трафика обменивающихся информацией устройств, участвующих в купле-продаже. А вот сокращение V2V во многих источниках даже не расшифровывают как понятное. Это обмен данными между движущимися средствами (Vehicle to Vehicle). Возможно, очень скоро обмен телеметрической информацией между автомобилями станет в каких-то странах обязательным стандартом. Как бы там ни было, есть прогнозы, что в ближайшее время данные, связанные с IoT, могут достигнуть объемов зетабайтов, то есть порядка 1021.

Микросхемы
соберут себя сами

Но пока речь шла о «возвышенных» изменениях, не затрагивающих «низменные» уровни – попросту говоря, сам кремний или то, что должно прийти ему на смену. Архитектуры-то новые, а кремний старый. Технологические процессы – подновленные буквально дедовские методы. Но выходит, что изменения грядут и там. Например, кремниевые транзисторы довольно скоро, возможно, будут собирать себя сами.

Речь идет о технологиях сополимеров. По сути это новые нанометоды, которые использовались для разных целей, с их помощью собирали структуры из наностержней, например. Их пробуют использовать и для наращивания плотности хранения дисков. Теперь самособираться будут критические элементы 3D-транзисторов.

До этого топология микросхемы задавалась фотолитографией: грубо говоря, на пластину наносится фоторезист, который разрушается светом. Светят сквозь фотошаблон, на котором и запечатлена вся топология будущего чипа. Вопрос в том, каким светом облучать, чтобы не попасться на физические ограничения, связанные с длиной волны и другими эффектами. Ну, или можно облучать не светом, а рентгеновским излучением или потоком электронов. Можно «подложить» под поток света прослоечку жидкости, которая за счет собственного коэффициента отражения соответственно улучшит разрешение (приблизительно так и делают, получая современные 14-нм чипы). Свет «портит» фоторезист, те части, которые были на свету, а не в тени, удаляются, те области, которые фоторезист перестал защищать, вытравливаются.

Чем же недавно удивили журналистов ученые из IBM? На традиционной кремниевой подложке традиционном методом вытравливаются определенной формы канавки. Они подобраны так, что осождающиеся на них блокирующие сополимеры вырастают в определенной формы объемные структуры, у которых характерные размеры могут оказаться меньше типичных для литографии. Два полимера взаимодействуют, выстраивают нечто совместное, не давая излишне разрастаться. Потом ученые учичтожают обоих – печальный удел. Но в одном из них содержится как составная часть кремний, а в другом – нет. Кремний осаждается в нужных местах как память об объемных структурах из полимеров. Ожидается, что они заменят традиционные технологии в наиболее критичных местах – там, где «плавники» современных 3D-транзисторов, например.

Оптики обещают цифры

Прежде чем вернуться к той части пейзажа, где в начале статьи был помещен вертолет, хочется обратиться опять к Big Data: в любом случае в будущем без них не удастся ступить и шага.

Одна из проблем в мире Больших Данных – то, что основная часть технологий Hadoop, прежде всего, не родились естественным образом в недрах HPC-сообщества, не были разработаны учеными для ученых. Алгоритмы и механизмы, которые там используются, были выбраны из соображений каких угодно, но только не максимально возможной быстроты работы и использования последних достижений параллельного программирования и быстрых топологий интерконнектов. Но ведь можно направить силы на то, чтобы переписать наиболее критичные куски кода Hadoop под существующий или будущий уровень HPC-систем. Это будет делаться и уже делается, но возникает вопрос, пока риторический (и с отрицательным ответом): не лучше ли сразу направить усилия на принципиально другие разработки, способные справляться с Большими Данными?

Например, взять в помощь оптические вычислители. Британская компания Optalysys объявила, что прототипы оптических процессоров будут готовы через считанные месяцы, а коммерческие продукты появятся в 2017 году, то есть примерно в одно время с двумя суперкомпьютерами на POWER9, о которых писали в начале статьи.

Всего через несколько лет, утверждают в компании, экзафлопсной производительности можно будет достигнуть на устройствах размером с ПК.

В начале 2015 года должен быть готов прототип с производительностью 340 ГФлопс, показывающий работоспособность концепции.

Вычислительный элемент этих оптических процессоров – жидкие кристаллы.

Электрооптический эффект позволяет вводить данные в кристалл, а соответствующие изменения оптических свойств дают возможность получать результат на выходе со скоростью прохождения света через кристаллы. Дифракционные свойства и Фурье-оптика позволит использовать такие вычислители для решения задач с преобразованиями Фурье, гидродинамики и распознавания образов. А вот и Big Data: в 2017 году появится два вида устройств. Первое из них будет приспособлено для задач анализа Больших Данных и работать в паре с традиционным суперкомпьютером. Первый рабочий образец должен будет развить производительность 1.32 ПФлопс. К 2020 году она будет доведена до 300 ПФлопс. Заявка относительно скромная на фоне того, что в 2019–2020 годах уже ожидаются традиционные суперкомпьютеры экзафлопсной производительности.

Зато вариант для решения уравнений и моделирования – Optalysys Optical Solver Supercomputer – начнет сразу с 9 ПФлопс, а в 2020-м достигнет уже 17.1 Экзафлопс.

Надо сказать, что разработчики квантовых компьютеров пока не рискуют прогнозировать столь подробно. Что свидетельствует о нескромности оптиков, мягко говоря. Или, с другой стороны глядя, о то ли показной, то ли органичной уверенности в себе и в перспективности своих разработок.

В пейзаже, который мы попытались нарисовать, выбор объектов может показаться случайным.

Многое не попало в поле нашего зрения: новейший проект по сверхпроводящим суперкомпьютерам, целая россыпь разработок искусственного интеллекта с разных сторон, подступающих к естественному, да мало ли что?

Но это уже другая история, все они подождут до следующего раза, если стремительно возникающие в этом пейзаже фигуры не заслонят их – на время, конечно, – от читателя.

Добавить комментарий


Защитный код
Обновить

Новости

Календарь материалов

« Марта 2017 »
Пн Вт Ср Чт Пт Сб Вс
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31