Выпуск #4/2009
Рассказывает директор НИИСИ РАН академик РАН В.Б.Бетелин
СуперЭВМ – это технологическое оружие.
СуперЭВМ – это технологическое оружие.
Просмотры: 3016
Проблема высокопроизводительных вычислений неоднократно обсуждалась на страницах нашего журнала. Не подлежит сомнению, что эта область – важнейший элемент системы обеспечения государственной безопасности, как экономической, так и военной. Мир вплотную подошел к тому рубежу, за которым сверхвысокопроизводительные системы из уникальных вычислительных комплексов превращаются в массовый инструмент разработчика. И если не предпринять адекватных мер, Россия может быть вычеркнута из списка экономически развитых стран. О важности этой проблемы – наш разговор с директором НИИСИ РАН, академиком РАН Владимиром Борисовичем Бетелиным.
Владимир Борисович, какова, на Ваш взгляд, роль суперкомпьютеров в современном мире?
Прежде всего, суперЭВМ – это инструмент, с помощью которого можно ничего не сделать, а можно сделать очень многое. Поэтому рассмотрим более общее понятие – информационные технологии. Информационные технологии – это катализатор инновационной экономики. Вспомните, в начале 1980-х годов появились персональные компьютеры (ПК), которые сыграли чрезвычайно важную роль в развитии всей промышленности. Они сделали массово доступными системы малой и средней автоматизации. Когда выросла мощность ПК, появилась возможность автоматизации проектирования. В результате чрезвычайно увеличилась производительность труда в реальном секторе экономики. Конечно, и в потребительском тоже, но в реальном – прежде всего. Сроки создания и вывода на рынок новых изделий сократились в разы. Именно этот феномен и привел к изменению структуры реального сектора, что принципиально. Возникли сверхкрупные компании – своего рода "становый хребет" новой экономики.
Типичный пример – рынок гражданской авиации, который по сути поделен между двумя компаниями – Airbus и Boeing. Причем последний авиаконцерн контролирует примерно 75% мирового рынка коммерческих воздушных судов. Когда-то в СССР производили 25% магистральных авиалайнеров, но мы потеряли этот рынок. И одна из причин – недооценка со стороны тогдашних властных структур роли информационных технологий.
В чем выразилась недооценка?
Я с 1980-х годов участвовал в автоматизации проектирования на ЗИЛе. Это была важная задача, но частная. А на самом деле ее нужно было рассматривать как задачу глобально-стратегическую. Мы к 1991 году только-только начали выходить на рабочие станции, в авиапроме начинала разворачиваться целая программа по созданию комплексов автоматизации на базе компьютеров VAX (компания DEC). Но мы не успели. А за рубежом аналогичные программы все это время развивались весьма динамично и, что важно, при большой поддержке государства.
Главный итог эпохи ПК в промышленности заключается в том, что в реальном секторе появилась трехмерная документация – конструкторская, технологическая, эксплуатационная. Но для более серьезных задач производительности ПК было уже недостаточно. Что же касается суперЭВМ – до 1993 года это были машины, реализованные на предельных технологиях, штучные и дорогие. Они использовались только для особо важных стратегических задач. И доступны были крайне ограниченному кругу лиц.
Правительства ведущих зарубежных стран правильно осознали значение информационных технологий. Причем там присутствовало понимание того, что их развитие невозможно без деятельного участия государства. В частности, в США еще в 1981-м была создана комиссия Питера Лакса (известный американский математик) по проблеме развития высокопроизводительных вычислений. Комиссия констатировала – отмечу, в самой рыночной стране США, – что рыночные механизмы не способны обеспечить должный уровень развития массовых суперкомпьютерных технологий и обязательно нужны государственные вложения. В 1983 году выводы комиссии Лакса обсуждались на слушаниях в конгрессе США, и суперкомпьютерные технологии в США начали получать государственную поддержку в разных формах. В 1984 году было создано агенство высокопроизводительных научных вычислений с бюджетом 200 млн. долларов на пять лет. В 1985 были открыты пять национальных суперкомпьютерных центров.
В 1991 году был издан закон о федеральной поддержке высокопроизводительных вычислений (Public Law 102–194). Он обязал Правительство США вкладывать в эту тематику большие деньги. Программы HPCA, ASCI и ряд других развивались во исполнение этого закона. Были созданы суперкомпьютерные центры.
Но самый важный результат той эпохи – в 1993 году появилась первая машина на массовых микропроцессорах, Intel Paragon (на RISC-процессорах Intel i860). Была сформулирована идея, что суперЭВМ нужно строить на массовых элементах и добиваться высокой производительности не повышая мощность одного процессора, а за счет использования большого числа процессоров, объединенных специальной коммуникационной системой. Эта идея подтвердилась в 1997 году, когда появился первый суперкомпьютер с производительностью свыше 1 TFlops. Это был Intel ASCI Red – суперЭВМ на массовых процессорах Intel Pentium Pro.
Очень важно, что все работы велись в рамках программы ASCI, которая имела ясную и четкую цель – обеспечение боеспособности ядерных арсеналов США в условиях действия международного договора о запрещении натурных испытаний ядерного оружия. Кроме того, программа решала и задачу сохранения и передачи накопленных знаний в этой области от поколения к поколению, поскольку к 2010–2012 годам все разработчики ядерных зарядов, работавшие в условиях реального эксперимента, должны были уйти на пенсию. Но самое важное заключалось в том, что ASCI была направлена не только на ядерное оружие. Это была попытка получить превосходство в 21 веке за счет более точного понимания физики, качественного повышения уровня производительности труда во всех сферах деятельности. Хоть явно это и не декларировалось, но многие эксперты прямо писали, что суть программы в том, что США снова хотят стать лидерами во всех научных и промышленных направлениях. А для этого эксперимент необходимо заменить точным моделированием.
В программе были обозначены сроки выхода на ряд пороговых значений производительности, которые определялись намеченными практическими задачами. То есть никакой гонки "за терафлопсами" ради гонки не было. При производительности в 1 TFlops можно создавать точные модели очень сложных объектов, например – рассчитать процессы в первую секунду ядерного взрыва. Однако моделировать процессы старения ядерных зарядов на интервалах несколько десятков лет такая производительность не позволяет.
Современные суперкомпьютеры создаются для решения принципиально новых задач. Но публикаций о них очень мало. Например, суперкомпьютер Blue Gene (360 TFlops) был использован для построения полной трехмерной модели двигателя компании Pratt & Whitney. Такой проект был реализован компанией совместно со Стэнфордским университетом. Известна работа о моделировании в лаборатории IBM в Цюрихе на суперЭВМ Blue Gene/L взаимодействия двуокиси гафния с другими материалами на атомарном уровне (именно НfO2 является сегодня одним из основных диэлектриков в планарной технологии уровня менее 65 нм). Исследовались 50 моделей силикатов гафния, каждая модель – до 600 атомов и 5 тыс. электронов. Вычисления по одной модели на суперкомпьютере производительностью 11 TFlops занимали 5 дней. Все исследование потребовало использования суперкомпьютера в течение 250 дней.
Известно и моделирование застывания расплава тантала. Использовалась классическая модель молекулярной динамики, 16 млн. атомов. Причем это – порог, ниже которого нет должной адекватности модели. А для 16 млн. для расчет одного варианта при производительности порядка 300 TFlops занимает семь часов счета. Те компании или государства, в распоряжении которых нет инструментов моделирования подобной производительности, сегодня становятся не конкурентоспособными во многих областях исследований и промышленного производства.
Вы говорите о предсказательном моделировании как об основном инструменте разработки. Но ведь тогда встает вопрос о достоверности модели, т.е. о ее верификации. Как он будет решаться?
В 1980-х годах на ЗИЛе, когда мы только начали заниматься машинным расчетом, конструкторы старой школы не особо доверяли новым методикам. Понадобилось порядка двух лет, чтобы переломить этот стереотип. Принципиальным моментом стал эксперимент. Объектом была выбрана рама от ЗИЛ-4331 (она перешла еще от ЗИЛ-130). А рама – это самый консервативный элемент конструкции, она была отработана до предела, ничего там сделать традиционными тогда методами было нельзя. В течение 1,5 месяцев мы просчитали порядка 1200 вариантов рамы с вариациями в ее геометрии и получили выигрыш порядка 10% веса – около 40 кг. Это был показательный эксперимент, ставший тогда переломным моментом на пути внедрения новых технологий.
Сейчас по отношению к предсказательному моделированию ситуация аналогична. Нужно не только доверие. Если стендовые испытания заменять моделированием, то должна быть уверенность в адекватности модели. На решение этой задачи, по зарубежным данным, нужно восемь лет – от момента начала разработки модели и до ее верификации и получения всех необходимых сертификатов. Необходим как сам инструмент, так и методика доведения его до надежного состояния и технологии применения. Для всего этого нужны стандарты и регламентирующие документы. То есть через восемь лет после начала разработки у конструктора появляется и инструмент, и процедура его использования.
Все эти работы проводятся при поддержке государства?
Безусловно. В 2006 году президентом США Дж.Бушем была объявлена долгосрочная программа "Инициатива по повышению конкурентоспособности США", на основании которой в августе 2007 года был принят закон "Америка Конкурирует" (H.R. 2272 "America Creating Opportunities to Meaningfully Promote Excellence in Technology, Education, and Science Act "). Этот закон – реализация комплексной стратегии сохранения позиции США как самой инновационной нации в мире путем (почти дословно) усиления научного образования и исследований, технологической подготовленности, привлечения лучших работников со всего мира и создания системы подготовки кадров, ориентированной на 21 век.
В рамках этого закона предусмотрен общий объем финансирования в 40 млрд. долл. на три года. Удваиваются ресурсы на фундаментальные исследования в таких областях, как супервычисления, альтернативные источники энергии и нанотехнологии.
В 2006 году совет по конкурентоспособности США провел исследование в области программного обеспечения и констатировал, что рыночные механизмы не могут привести к созданию сложных программных систем. Коммерческие организации могут создать ПО уровня сложности порядка 10–15% от требуемого. Далее слишком высоки риски, поэтому такие работы возможны только под государственным патронажем. И немедленно была создана соответствующая программа, в рамках которой на развитие ПО для высокопроизводительных вычислений выделяется порядка 0,5 млрд. долл. в год.
Аналогичные программы действуют и в Европе. Рамочная программа 7 ЕС предусматривает выделение с 2008 года порядка 250 млн. евро в год только на развитие программных систем предсказательного моделирования. Запущены отдельные программы – "виртуальная электростанция", "виртуальный вертолет", "виртуальный реактивный двигатель", "виртуальный "зеленый" пассажирский лайнер" и др. В Евросоюзе предусмотрено создание нескольких суперкомпьютерных центров уровня выше 1 PFlops.
Помимо государства свои программы развивают и крупные корпорации. Например, Airbus планирует к 2020 году создать семейство самолетов исключительно за счет предсказательного моделирования. Они собираются уменьшить выброс СОх на 50%, NOх – на 80% и снизить шум на 50%.
Еще раз отмечу, суперкомпьютерные технологии – это принципиальный рывок в производительности труда. Например, экзафлопсный уровень (свыше 1018 Flops) позволяет полностью моделировать полет авиалайнера. На этом же уровне находятся модели атомных энергетических установок. В США собираются создать такие системы к 2018 году. В результате существенно сократятся программы летных испытаний. Соответственно, драматически снизятся сроки и стоимость разработки. Кроме того, средства моделирования обязательно будут включаться в комплект поставки. Это тренажеры, техническая документация и т.п. Даже если предположить, что новый, экзафлопный уровень производительности будет достигнут на 5–7 лет позже, все равно это остается близкой перспективой и работы уже идут.
Поэтому очевидно, что без подобных расчетных инструментов к 2020 году Россия не будет представлена ни на одном рынке сложных промышленных изделий.
В 1980-е годы микроэлектроника подошла к порогу, за которым без САПР разработка СБИС стала невозможной. Сегодня вся техника оказалась в таком же положении?
Да, микроэлектроника была самой первой областью, где без предсказательного моделирования развитие стало невозможным. Сегодня практически все отрасли машиностроения, вся высокотехнологическая промышленность достигла такого уровня, что без точного моделирования их дальнейшее развитие едва ли возможно и экономически нецелесообразно.
И в этой связи давайте посмотрим, что происходит у нас. К сожалению, еще со времен СССР властные структуры недооценивали стратегическую роль массовых информационных технологий – катализатора развития всей промышленности. А ведь информационные технологии – это, по сути, технологическое оружие, обеспечивающее конкурентоспособность, следовательно – экономическую и национальную безопасность государства. В последующие годы проявилась принципиальная неспособность рыночных механизмов обеспечить технологическое перевооружение промышленности и науки на основе информационных технологий.
В результате мы более чем на порядок отстаем от США по производительности самого мощного эксплуатируемого в стране суперкомпьютера (на июнь 2009 года – 97 против 1105 TFlops в соответствии со списком ТОР500), на два порядка – по суммарной пиковой производительности (в России – 215 TFlops, в США – свыше 21 PFlops). Но самое страшное – мы в 1000 раз отстаем по применению суперкомпьютеров в промышленности. В США сосредоточено порядка 85% мировой мощности суперкомпьютеров (суммарная пиковая производительность из списка ТОР500), и половина ее используется в промышленности. У нас – менее 0,9% мировой мощности, и 5% от нее используется в промышленности. Иными словами, в отечественном машиностроении не решаются современные производственные задачи.
Вместе с академиком Е.П.Велиховым в течение последних трех лет мы пытаемся создать некий аналог программы ASCI, но ориентированной не на системы вооружения, а на задачи реального сектора экономики, конкретно – для машиностроения. В России долгие годы доминировала теория, что предприятия сами должны заниматься всеми вопросами своего развития и технического перевооружения – исключительно за свой счет. В результате сегодня у нас уровень развития соответствует в лучшем случае общемировым показателям середины–начала 1990-х годов. За последние 17 лет очень большие деньги были вложены в потребительский сектор, но не в реальный. Конечно, потребительский сектор (Интернет, связь и т.п.) очень важен. Но в реальный сектор вложено существенно меньше.
В результате, например, объем продаж компании Exxon Mobil составляет около 420 млрд. долл., а у Газпрома – 98,6 млрд. долл. (в 4 раза меньше). При этом в Газпроме в 4 раза больше работников, соответственно, выработка на человека меньше в 16 раз. В целом же, крупнейшие компании России отстают от конкурентов по объемам продаж: в нефтедобыче – в 14 раз, в металлургии – в 19 раз, в химической промышленности – в 20 раз, в пищевой промышленности – в 40 раз, а автомобилестроении – в 44 раза. В нефтедобывающей отрасли России с 1990 по 2005 годы объем добычи на одного работающего упал в 2,4 раза. Какие еще индикаторы важности срочного технологического перевооружения машиностроения нужны? А такое перевооружение означает, прежде всего, внедрение информационных технологий.
Почему речь идет именно о машиностроении?
В США первые 100 компаний реального сектора (по сути – машиностроения) имеют годовые обороты от 400 до 10 млрд. долл. В сумме их оборот, около триллиона долларов, примерно равен обороту нефтегазового сектора. Но именно машиностроение обеспечивает нефтегазовый сектор. Поэтому основные финансовые потоки нацелены именно на машиностроение. Но для развития этой отрасли нужно моделирование.
Поэтому мы и говорим о необходимости комплексного перевооружения именно машиностроения. Причем нужен ряд ключевых задач-показателей – для авиации, судостроения, энергетики и т.п. И основная роль здесь принадлежит именно информационным технологиям, но в привязке к конкретным показателям создаваемых на их основе продуктов.
Но при столь больших отрывах от мировых лидеров не упустили ли мы время безвозвратно?
Около 1,5 лет назад, когда по инициативе академика Е.П.Велихова началось интенсивное обсуждение этой проблемы, были опасения, что мы уже опоздали навсегда. США являются абсолютным лидером и по самим суперкомпьютерам, и по ПО для них. Даже в программе ASCI порядка 10% средств выделялось на гражданские применения, а последние законы США еще более упрочили положение области промышленного применения суперкомпьютерных технологий. Но анализ и американских, и европейских программ показывает, что процесс перехода к предсказательному моделированию пока лишь в начальной стадии. Еще есть шансы догнать, однако дальнейшее промедление может оказаться необратимым.
Кроме того, начинает проявляться технологический фактор. С одной стороны, с 1996 года производительность выросла в 1000 раз, а удельная стоимость 1 TFlops упала в 500 раз. То есть предельные суперкомпьютеры остаются весьма дорогими. Кроме того, почти все они построены на массовых микропроцессорах, рассчитанных на однопроцессорную машину. И с ростом сложности суперЭВМ начинает падать их надежность. Ведь если в ПК произойдет сбой раз в сутки – ничего страшного. А если в суперкомпьютере сотня тысяч процессоров (например, в Roadrunner 129,6 тыс. ядер)? И счет ведется сотни часов? Начнется непрерывная череда отказов. Что, в частности, подтвердил и один из основателей ТОР500 Дж.Донгарра в недавнем выступлении в Москве. И это – действительно проблема. Следовательно, в суперкомпьютерах нужно использовать специальные процессоры, а это уже означает смену технологической парадигмы этих систем.
То, что суперкомпьютерный мир меняется, наглядно демонстрирует пример компании SiCortex. Эта небольшая фирма создала вполне конкурентоспособную машину на очень правильных идеях. Речь идет о "терафлопсах за киловатты". Основополагающая идея – система должна стоять в офисе и включаться в розетку. Для этого необходимо низкое энергопотребление. Кроме того, такая система должна быть крайне надежной. При условии низкого энергопотребления надежность можно обеспечить только за счет технологии изготовления компонентов.
Компания SiCortex решила эти задачи. Она создала семейство суперЭВМ с производительностью от 0,1 до 8 TFlops с потреблением от 300 Вт до 20 кВт, соответственно. Примечательно, что в технических решениях нет никакой революционной новизны. Компания разработала свой процессор (узел), представляющий собой СБИС с шестью 64-разрадными ядрами с архитектурой MIPS, кэш-памятью, коммутатором и контроллером шины PCI Express. Все элементы надежны и отработаны. Поэтому и вся система в целом, использующая сотни таких узлов, обладает наследственной надежностью. Никакие специальные меры по обеспечению отказоустойчивости, например, мажорирование, там не применяются. Охлаждение исключительно воздушное. Из особенностей системы можно отметить систему коммутации. Но самое важное – при разработке специалисты SiCortex применили наиболее совершенную систему верификации проекта, что и гарантировало им ожидаемый результат.
До начала мирового экономического кризиса проект SiCortex был успешен и технически, и экономически – было продано около 70 компьютеров SiCortex. К сожалению, в условиях кризиса компания не смогла договориться с инвесторами о продолжении финансирования и в мае 2009 прекратила свое существование.
Почему вы тем не менее особо выделяете деятельность именно компании SiCortex?
Видимо, созданное ею семейство вычислительных систем – это уровень суперЭВМ следующего поколения. По нашему анализу, сегодня промышленность в основном закупает суперкомпьютеры с производительность до 6 TFlops. В науке массово используются несколько более мощные системы, 11–12 TFlops. Поэтому сейчас мы должны ориентироваться на выпуск именно таких систем. Компания SiCortex продемонстрировала, что это возможно. По сути, была доказана теорема существования – если 30 человек примерно за 60 млн. долл. сделали такую систему, значит, и нам по силам аналогичные задачи.
Примечательно, что еще на ЗИЛе в 1980-е годы все наши разработки начинались с выяснения реальной потребности. Тогда мы вывели соотношение, что на трех конструкторов нужна одна рабочая станция с производительностью 3 MFlops. Это – 1980-е годы. Сейчас мы провели аналогичную работу в области атомной энергетики, и соотношение оказалось аналогичным (но в миллион раз большим) – 1 TFlops на троих. Следовательно, нам немедленно нужно начинать создавать компьютеры с производительностью 1–5 TFlops. Поскольку важнейшая составляющая таких систем – прикладное ПО, целесообразно сразу закупить несколько высокопроизводительных компьютеров, чтобы заняться разработкой программного обеспечения.
Мир снова возвращается к массовым рабочим станциям?
Сейчас мы переживаем переломный момент. В свое время рабочие станции были вытеснены ПК. Но сегодня идет новый виток развития, рабочие станции возвращаются – но уже на качественно новом уровне. С другой стороны, с уменьшением проектных норм в микроэлектронике до 45 нм и ниже мир идет к многоядерным процессорам. Многоядерность неизбежна, поскольку, по данным Intel, при столь малых размерах элементов технологический разброс параметров не позволяет размещать вычислительное ядро на площади больше 2 мм2. Иначе начинаются проблемы, в том числе – с синхронизацией всей системы на кристалле. Именно поэтому Intel сегодня и развивает проект процессора с 80 ядрами.
Следовательно, мы идем к мультипроцессорному компьютеру, ПК превращается в суперкомпьютер. Простому пользователю он не очень нужен. Суперкомпьютер – это уже другие требования к ПО, другие задачи. Поэтому можно ожидать, что будет в целом меняться технология обработки данных массовым пользователем. Появятся офисные центры обработки данных, у пользователей будут простые терминалы-коммуникаторы с хорошими каналами обмена данными. В этой области весь мир пока пребывает на старте, что дает нам определенный шанс.
А не проще ли купить все сразу – и компьютер, и прикладное ПО?
Сами компьютеры уровня 5–10 TFlops вполне доступны. А вот с ПО сложнее. Можно купить системы с ограниченными возможностями, например для работы на 15–20 процессорах. Не более. И это логично, поскольку системы моделирования для суперЭВМ – это новое технологическое оружие, в свободной продаже его нет. А без него в 21 веке промышленная держава не может существовать.
Какие шаги следует предпринять, чтобы не упустить время и воспользоваться предоставленным шансом в области суперкомпьютеров?
Проблема суперЭВМ – это проблема комплексная. Нужна комплексная программа перевооружения промышленности, прежде всего – в машиностроении. Необходимо выбрать наиболее крупные, системообразующие компании. Задачу упрощает создание ряда крупных госкорпораций. В их рамках необходимо задаться целью вывести на рынок к такому-то году такой-то крупный продукт. Вкладывать в проект государственные деньги и контролировать выполнение. При этом неизбежно встанет и будет решен вопрос информационных технологий, поскольку без них никакой конкурентный продукт сегодня не создать.
Если говорить собственно о программе развития высокопроизводительных вычислений, как составляющей комплексной программы технологического перевооружения промышленности, какие задачи необходимо решать в первую очередь?
Мне представляется, что в России нужно делать все, включая элементную базу. В качестве модели я предложил бы подход компании SiCortex. Путь построения гигантских компьютеров сложен, в том числе – в силу снижения их надежности. Ведущие мировые производители тратят огромное время на отладку своих систем. Если использовать чужой процессор, возникнут проблемы, связанные с несоответствиями спецификациям – не специально заложенные, а технологически неизбежные. Производитель о них знает и может учесть. Всем остальным гораздо сложнее. Конечно, в рамках единичных проектов сделать можно все. Но если мы хотим оснастить суперкомпьютерами все предприятия, нужен иной подход. Причем одно дело – использование суперкомпьютера для научных исследований в университете, другое дело – занимающее сотни часов моделирование сложных производственных процессов на предприятии. Цена сбоя резко возрастает. Поэтому всеми технологиями необходимо владеть самим. И не нужно заниматься универсальными процессорами – для каждого класса задач можно создавать специализированную упрощенную архитектуру.
Но самое главное – нам сейчас нужно воспитать конструкторов, которые смогут пользоваться компьютерами уровня 1–5 TFlops. А для этого должно быть соответствующее ПО, работающее с большим числом процессоров. Это – очень сложная проблема. К счастью, в России пока есть кому этим заниматься.
Поэтому первая задача сегодня – это разработка своего ПО. Компьютеров сейчас в российских университетах довольно много, покупаются новые. Но они используются не достаточно эффективно. Нужно, чтобы кто-то поставил задачу и за нее заплатил. А для этого необходимы и средства, и соответствующая инфраструктура. Вот этого элемента сегодня и не хватает сильнее всего. Поэтому первое, что нужно сделать – объединить существующие суперкомпьютерные центры – в РАН, в вузах и т.п. и поставить перед ними реальные задачи.
Проблема создания своей аппаратуры выглядит вторичной по отношению к ПО. Но начинать ею заниматься, то есть приступать к разработке собственной элементной базы для суперкомпьютеров, нужно уже сейчас. Иначе мы попросту не успеем. Ведь в этой области у нас технология прошлого века. И чтобы она стала современной, нужно просто купить необходимые средства разработки.
Точки роста у нас в России есть, но нужна объединяющая программа, нацеленная, как в ASCI, на конкретный результат. А не на терафлопсы как таковые. Тут важно волевое и именно государственное решение. Бизнес сам ничего не сделает – просто не хватит денег, чтобы в рамках конкретного проекта довести дело до реального продукта. Ведь восемь лет нужно только вкладывать. Кто это выдержит, кроме государства? Тем более, что инвестиции окупятся на совокупности различных проектов, в рамках экономики всей страны.
Но все это – вопросы конкретной программы, которую еще предстоит разработать. Столь большую работу можно начинать только после того, как будет принято соответствующее государственное решение. С другой стороны, начинать нужно сейчас, поскольку до 2020 года осталось немного. А вот тогда мы уже рискуем отстать "навсегда".
Кто должен сформулировать такую программу?
Сейчас по инициативе Е.П.Велихова в рамках комиссии по информатизации Госсовета была создана рабочая группа именно по суперкомпьютерам. Уже сложилось взаимодействие между рядом заинтересованных структур, таких как РАН, Росатом, МЧС и др. Основное положение проекта программы – технологическое перевооружение машиностроения, создание вычислительных суперкомпьютерных центров. Но самое главное – нельзя рассматривать и развивать высокопроизводительные вычисления как научную дисциплину. Все развитие должно идти в интересах реального сектора экономики, прежде всего – машиностроения.
Можно говорить об элементной базе, об архитектурах суперЭВМ, о чем угодно – но первична именно государственная программа, которая свяжет все заинтересованные и способные работать структуры, поставит перед ними задачи и финансово обеспечит их выполнение. И исходить нужно только из того, насколько это ускорит или замедлит продвижение к сугубо прагматической цели – к оснащению промышленности новым видом техники в интересах выпуска новой конкурентоспособной продукции.
Если Россия действительно хочет к 2020 году быть одной из пяти ведущих мировых держав, необходимо 30–50-кратное увеличение производительности труда. А это может обеспечить только "технологическое оружие" 21 века – массовые суперкомпьютерные технологии в промышленности, науке и образовании России.
Спасибо за содержательный рассказ. Вместе с вами призываем все здоровые силы общества к объединению для решения столь важной задачи. Иначе, действительно, вскоре задач не останется.
С В.Б.Бетелиным беседовали П.П.Мальцев и И.В.Шахнович
Прежде всего, суперЭВМ – это инструмент, с помощью которого можно ничего не сделать, а можно сделать очень многое. Поэтому рассмотрим более общее понятие – информационные технологии. Информационные технологии – это катализатор инновационной экономики. Вспомните, в начале 1980-х годов появились персональные компьютеры (ПК), которые сыграли чрезвычайно важную роль в развитии всей промышленности. Они сделали массово доступными системы малой и средней автоматизации. Когда выросла мощность ПК, появилась возможность автоматизации проектирования. В результате чрезвычайно увеличилась производительность труда в реальном секторе экономики. Конечно, и в потребительском тоже, но в реальном – прежде всего. Сроки создания и вывода на рынок новых изделий сократились в разы. Именно этот феномен и привел к изменению структуры реального сектора, что принципиально. Возникли сверхкрупные компании – своего рода "становый хребет" новой экономики.
Типичный пример – рынок гражданской авиации, который по сути поделен между двумя компаниями – Airbus и Boeing. Причем последний авиаконцерн контролирует примерно 75% мирового рынка коммерческих воздушных судов. Когда-то в СССР производили 25% магистральных авиалайнеров, но мы потеряли этот рынок. И одна из причин – недооценка со стороны тогдашних властных структур роли информационных технологий.
В чем выразилась недооценка?
Я с 1980-х годов участвовал в автоматизации проектирования на ЗИЛе. Это была важная задача, но частная. А на самом деле ее нужно было рассматривать как задачу глобально-стратегическую. Мы к 1991 году только-только начали выходить на рабочие станции, в авиапроме начинала разворачиваться целая программа по созданию комплексов автоматизации на базе компьютеров VAX (компания DEC). Но мы не успели. А за рубежом аналогичные программы все это время развивались весьма динамично и, что важно, при большой поддержке государства.
Главный итог эпохи ПК в промышленности заключается в том, что в реальном секторе появилась трехмерная документация – конструкторская, технологическая, эксплуатационная. Но для более серьезных задач производительности ПК было уже недостаточно. Что же касается суперЭВМ – до 1993 года это были машины, реализованные на предельных технологиях, штучные и дорогие. Они использовались только для особо важных стратегических задач. И доступны были крайне ограниченному кругу лиц.
Правительства ведущих зарубежных стран правильно осознали значение информационных технологий. Причем там присутствовало понимание того, что их развитие невозможно без деятельного участия государства. В частности, в США еще в 1981-м была создана комиссия Питера Лакса (известный американский математик) по проблеме развития высокопроизводительных вычислений. Комиссия констатировала – отмечу, в самой рыночной стране США, – что рыночные механизмы не способны обеспечить должный уровень развития массовых суперкомпьютерных технологий и обязательно нужны государственные вложения. В 1983 году выводы комиссии Лакса обсуждались на слушаниях в конгрессе США, и суперкомпьютерные технологии в США начали получать государственную поддержку в разных формах. В 1984 году было создано агенство высокопроизводительных научных вычислений с бюджетом 200 млн. долларов на пять лет. В 1985 были открыты пять национальных суперкомпьютерных центров.
В 1991 году был издан закон о федеральной поддержке высокопроизводительных вычислений (Public Law 102–194). Он обязал Правительство США вкладывать в эту тематику большие деньги. Программы HPCA, ASCI и ряд других развивались во исполнение этого закона. Были созданы суперкомпьютерные центры.
Но самый важный результат той эпохи – в 1993 году появилась первая машина на массовых микропроцессорах, Intel Paragon (на RISC-процессорах Intel i860). Была сформулирована идея, что суперЭВМ нужно строить на массовых элементах и добиваться высокой производительности не повышая мощность одного процессора, а за счет использования большого числа процессоров, объединенных специальной коммуникационной системой. Эта идея подтвердилась в 1997 году, когда появился первый суперкомпьютер с производительностью свыше 1 TFlops. Это был Intel ASCI Red – суперЭВМ на массовых процессорах Intel Pentium Pro.
Очень важно, что все работы велись в рамках программы ASCI, которая имела ясную и четкую цель – обеспечение боеспособности ядерных арсеналов США в условиях действия международного договора о запрещении натурных испытаний ядерного оружия. Кроме того, программа решала и задачу сохранения и передачи накопленных знаний в этой области от поколения к поколению, поскольку к 2010–2012 годам все разработчики ядерных зарядов, работавшие в условиях реального эксперимента, должны были уйти на пенсию. Но самое важное заключалось в том, что ASCI была направлена не только на ядерное оружие. Это была попытка получить превосходство в 21 веке за счет более точного понимания физики, качественного повышения уровня производительности труда во всех сферах деятельности. Хоть явно это и не декларировалось, но многие эксперты прямо писали, что суть программы в том, что США снова хотят стать лидерами во всех научных и промышленных направлениях. А для этого эксперимент необходимо заменить точным моделированием.
В программе были обозначены сроки выхода на ряд пороговых значений производительности, которые определялись намеченными практическими задачами. То есть никакой гонки "за терафлопсами" ради гонки не было. При производительности в 1 TFlops можно создавать точные модели очень сложных объектов, например – рассчитать процессы в первую секунду ядерного взрыва. Однако моделировать процессы старения ядерных зарядов на интервалах несколько десятков лет такая производительность не позволяет.
Современные суперкомпьютеры создаются для решения принципиально новых задач. Но публикаций о них очень мало. Например, суперкомпьютер Blue Gene (360 TFlops) был использован для построения полной трехмерной модели двигателя компании Pratt & Whitney. Такой проект был реализован компанией совместно со Стэнфордским университетом. Известна работа о моделировании в лаборатории IBM в Цюрихе на суперЭВМ Blue Gene/L взаимодействия двуокиси гафния с другими материалами на атомарном уровне (именно НfO2 является сегодня одним из основных диэлектриков в планарной технологии уровня менее 65 нм). Исследовались 50 моделей силикатов гафния, каждая модель – до 600 атомов и 5 тыс. электронов. Вычисления по одной модели на суперкомпьютере производительностью 11 TFlops занимали 5 дней. Все исследование потребовало использования суперкомпьютера в течение 250 дней.
Известно и моделирование застывания расплава тантала. Использовалась классическая модель молекулярной динамики, 16 млн. атомов. Причем это – порог, ниже которого нет должной адекватности модели. А для 16 млн. для расчет одного варианта при производительности порядка 300 TFlops занимает семь часов счета. Те компании или государства, в распоряжении которых нет инструментов моделирования подобной производительности, сегодня становятся не конкурентоспособными во многих областях исследований и промышленного производства.
Вы говорите о предсказательном моделировании как об основном инструменте разработки. Но ведь тогда встает вопрос о достоверности модели, т.е. о ее верификации. Как он будет решаться?
В 1980-х годах на ЗИЛе, когда мы только начали заниматься машинным расчетом, конструкторы старой школы не особо доверяли новым методикам. Понадобилось порядка двух лет, чтобы переломить этот стереотип. Принципиальным моментом стал эксперимент. Объектом была выбрана рама от ЗИЛ-4331 (она перешла еще от ЗИЛ-130). А рама – это самый консервативный элемент конструкции, она была отработана до предела, ничего там сделать традиционными тогда методами было нельзя. В течение 1,5 месяцев мы просчитали порядка 1200 вариантов рамы с вариациями в ее геометрии и получили выигрыш порядка 10% веса – около 40 кг. Это был показательный эксперимент, ставший тогда переломным моментом на пути внедрения новых технологий.
Сейчас по отношению к предсказательному моделированию ситуация аналогична. Нужно не только доверие. Если стендовые испытания заменять моделированием, то должна быть уверенность в адекватности модели. На решение этой задачи, по зарубежным данным, нужно восемь лет – от момента начала разработки модели и до ее верификации и получения всех необходимых сертификатов. Необходим как сам инструмент, так и методика доведения его до надежного состояния и технологии применения. Для всего этого нужны стандарты и регламентирующие документы. То есть через восемь лет после начала разработки у конструктора появляется и инструмент, и процедура его использования.
Все эти работы проводятся при поддержке государства?
Безусловно. В 2006 году президентом США Дж.Бушем была объявлена долгосрочная программа "Инициатива по повышению конкурентоспособности США", на основании которой в августе 2007 года был принят закон "Америка Конкурирует" (H.R. 2272 "America Creating Opportunities to Meaningfully Promote Excellence in Technology, Education, and Science Act "). Этот закон – реализация комплексной стратегии сохранения позиции США как самой инновационной нации в мире путем (почти дословно) усиления научного образования и исследований, технологической подготовленности, привлечения лучших работников со всего мира и создания системы подготовки кадров, ориентированной на 21 век.
В рамках этого закона предусмотрен общий объем финансирования в 40 млрд. долл. на три года. Удваиваются ресурсы на фундаментальные исследования в таких областях, как супервычисления, альтернативные источники энергии и нанотехнологии.
В 2006 году совет по конкурентоспособности США провел исследование в области программного обеспечения и констатировал, что рыночные механизмы не могут привести к созданию сложных программных систем. Коммерческие организации могут создать ПО уровня сложности порядка 10–15% от требуемого. Далее слишком высоки риски, поэтому такие работы возможны только под государственным патронажем. И немедленно была создана соответствующая программа, в рамках которой на развитие ПО для высокопроизводительных вычислений выделяется порядка 0,5 млрд. долл. в год.
Аналогичные программы действуют и в Европе. Рамочная программа 7 ЕС предусматривает выделение с 2008 года порядка 250 млн. евро в год только на развитие программных систем предсказательного моделирования. Запущены отдельные программы – "виртуальная электростанция", "виртуальный вертолет", "виртуальный реактивный двигатель", "виртуальный "зеленый" пассажирский лайнер" и др. В Евросоюзе предусмотрено создание нескольких суперкомпьютерных центров уровня выше 1 PFlops.
Помимо государства свои программы развивают и крупные корпорации. Например, Airbus планирует к 2020 году создать семейство самолетов исключительно за счет предсказательного моделирования. Они собираются уменьшить выброс СОх на 50%, NOх – на 80% и снизить шум на 50%.
Еще раз отмечу, суперкомпьютерные технологии – это принципиальный рывок в производительности труда. Например, экзафлопсный уровень (свыше 1018 Flops) позволяет полностью моделировать полет авиалайнера. На этом же уровне находятся модели атомных энергетических установок. В США собираются создать такие системы к 2018 году. В результате существенно сократятся программы летных испытаний. Соответственно, драматически снизятся сроки и стоимость разработки. Кроме того, средства моделирования обязательно будут включаться в комплект поставки. Это тренажеры, техническая документация и т.п. Даже если предположить, что новый, экзафлопный уровень производительности будет достигнут на 5–7 лет позже, все равно это остается близкой перспективой и работы уже идут.
Поэтому очевидно, что без подобных расчетных инструментов к 2020 году Россия не будет представлена ни на одном рынке сложных промышленных изделий.
В 1980-е годы микроэлектроника подошла к порогу, за которым без САПР разработка СБИС стала невозможной. Сегодня вся техника оказалась в таком же положении?
Да, микроэлектроника была самой первой областью, где без предсказательного моделирования развитие стало невозможным. Сегодня практически все отрасли машиностроения, вся высокотехнологическая промышленность достигла такого уровня, что без точного моделирования их дальнейшее развитие едва ли возможно и экономически нецелесообразно.
И в этой связи давайте посмотрим, что происходит у нас. К сожалению, еще со времен СССР властные структуры недооценивали стратегическую роль массовых информационных технологий – катализатора развития всей промышленности. А ведь информационные технологии – это, по сути, технологическое оружие, обеспечивающее конкурентоспособность, следовательно – экономическую и национальную безопасность государства. В последующие годы проявилась принципиальная неспособность рыночных механизмов обеспечить технологическое перевооружение промышленности и науки на основе информационных технологий.
В результате мы более чем на порядок отстаем от США по производительности самого мощного эксплуатируемого в стране суперкомпьютера (на июнь 2009 года – 97 против 1105 TFlops в соответствии со списком ТОР500), на два порядка – по суммарной пиковой производительности (в России – 215 TFlops, в США – свыше 21 PFlops). Но самое страшное – мы в 1000 раз отстаем по применению суперкомпьютеров в промышленности. В США сосредоточено порядка 85% мировой мощности суперкомпьютеров (суммарная пиковая производительность из списка ТОР500), и половина ее используется в промышленности. У нас – менее 0,9% мировой мощности, и 5% от нее используется в промышленности. Иными словами, в отечественном машиностроении не решаются современные производственные задачи.
Вместе с академиком Е.П.Велиховым в течение последних трех лет мы пытаемся создать некий аналог программы ASCI, но ориентированной не на системы вооружения, а на задачи реального сектора экономики, конкретно – для машиностроения. В России долгие годы доминировала теория, что предприятия сами должны заниматься всеми вопросами своего развития и технического перевооружения – исключительно за свой счет. В результате сегодня у нас уровень развития соответствует в лучшем случае общемировым показателям середины–начала 1990-х годов. За последние 17 лет очень большие деньги были вложены в потребительский сектор, но не в реальный. Конечно, потребительский сектор (Интернет, связь и т.п.) очень важен. Но в реальный сектор вложено существенно меньше.
В результате, например, объем продаж компании Exxon Mobil составляет около 420 млрд. долл., а у Газпрома – 98,6 млрд. долл. (в 4 раза меньше). При этом в Газпроме в 4 раза больше работников, соответственно, выработка на человека меньше в 16 раз. В целом же, крупнейшие компании России отстают от конкурентов по объемам продаж: в нефтедобыче – в 14 раз, в металлургии – в 19 раз, в химической промышленности – в 20 раз, в пищевой промышленности – в 40 раз, а автомобилестроении – в 44 раза. В нефтедобывающей отрасли России с 1990 по 2005 годы объем добычи на одного работающего упал в 2,4 раза. Какие еще индикаторы важности срочного технологического перевооружения машиностроения нужны? А такое перевооружение означает, прежде всего, внедрение информационных технологий.
Почему речь идет именно о машиностроении?
В США первые 100 компаний реального сектора (по сути – машиностроения) имеют годовые обороты от 400 до 10 млрд. долл. В сумме их оборот, около триллиона долларов, примерно равен обороту нефтегазового сектора. Но именно машиностроение обеспечивает нефтегазовый сектор. Поэтому основные финансовые потоки нацелены именно на машиностроение. Но для развития этой отрасли нужно моделирование.
Поэтому мы и говорим о необходимости комплексного перевооружения именно машиностроения. Причем нужен ряд ключевых задач-показателей – для авиации, судостроения, энергетики и т.п. И основная роль здесь принадлежит именно информационным технологиям, но в привязке к конкретным показателям создаваемых на их основе продуктов.
Но при столь больших отрывах от мировых лидеров не упустили ли мы время безвозвратно?
Около 1,5 лет назад, когда по инициативе академика Е.П.Велихова началось интенсивное обсуждение этой проблемы, были опасения, что мы уже опоздали навсегда. США являются абсолютным лидером и по самим суперкомпьютерам, и по ПО для них. Даже в программе ASCI порядка 10% средств выделялось на гражданские применения, а последние законы США еще более упрочили положение области промышленного применения суперкомпьютерных технологий. Но анализ и американских, и европейских программ показывает, что процесс перехода к предсказательному моделированию пока лишь в начальной стадии. Еще есть шансы догнать, однако дальнейшее промедление может оказаться необратимым.
Кроме того, начинает проявляться технологический фактор. С одной стороны, с 1996 года производительность выросла в 1000 раз, а удельная стоимость 1 TFlops упала в 500 раз. То есть предельные суперкомпьютеры остаются весьма дорогими. Кроме того, почти все они построены на массовых микропроцессорах, рассчитанных на однопроцессорную машину. И с ростом сложности суперЭВМ начинает падать их надежность. Ведь если в ПК произойдет сбой раз в сутки – ничего страшного. А если в суперкомпьютере сотня тысяч процессоров (например, в Roadrunner 129,6 тыс. ядер)? И счет ведется сотни часов? Начнется непрерывная череда отказов. Что, в частности, подтвердил и один из основателей ТОР500 Дж.Донгарра в недавнем выступлении в Москве. И это – действительно проблема. Следовательно, в суперкомпьютерах нужно использовать специальные процессоры, а это уже означает смену технологической парадигмы этих систем.
То, что суперкомпьютерный мир меняется, наглядно демонстрирует пример компании SiCortex. Эта небольшая фирма создала вполне конкурентоспособную машину на очень правильных идеях. Речь идет о "терафлопсах за киловатты". Основополагающая идея – система должна стоять в офисе и включаться в розетку. Для этого необходимо низкое энергопотребление. Кроме того, такая система должна быть крайне надежной. При условии низкого энергопотребления надежность можно обеспечить только за счет технологии изготовления компонентов.
Компания SiCortex решила эти задачи. Она создала семейство суперЭВМ с производительностью от 0,1 до 8 TFlops с потреблением от 300 Вт до 20 кВт, соответственно. Примечательно, что в технических решениях нет никакой революционной новизны. Компания разработала свой процессор (узел), представляющий собой СБИС с шестью 64-разрадными ядрами с архитектурой MIPS, кэш-памятью, коммутатором и контроллером шины PCI Express. Все элементы надежны и отработаны. Поэтому и вся система в целом, использующая сотни таких узлов, обладает наследственной надежностью. Никакие специальные меры по обеспечению отказоустойчивости, например, мажорирование, там не применяются. Охлаждение исключительно воздушное. Из особенностей системы можно отметить систему коммутации. Но самое важное – при разработке специалисты SiCortex применили наиболее совершенную систему верификации проекта, что и гарантировало им ожидаемый результат.
До начала мирового экономического кризиса проект SiCortex был успешен и технически, и экономически – было продано около 70 компьютеров SiCortex. К сожалению, в условиях кризиса компания не смогла договориться с инвесторами о продолжении финансирования и в мае 2009 прекратила свое существование.
Почему вы тем не менее особо выделяете деятельность именно компании SiCortex?
Видимо, созданное ею семейство вычислительных систем – это уровень суперЭВМ следующего поколения. По нашему анализу, сегодня промышленность в основном закупает суперкомпьютеры с производительность до 6 TFlops. В науке массово используются несколько более мощные системы, 11–12 TFlops. Поэтому сейчас мы должны ориентироваться на выпуск именно таких систем. Компания SiCortex продемонстрировала, что это возможно. По сути, была доказана теорема существования – если 30 человек примерно за 60 млн. долл. сделали такую систему, значит, и нам по силам аналогичные задачи.
Примечательно, что еще на ЗИЛе в 1980-е годы все наши разработки начинались с выяснения реальной потребности. Тогда мы вывели соотношение, что на трех конструкторов нужна одна рабочая станция с производительностью 3 MFlops. Это – 1980-е годы. Сейчас мы провели аналогичную работу в области атомной энергетики, и соотношение оказалось аналогичным (но в миллион раз большим) – 1 TFlops на троих. Следовательно, нам немедленно нужно начинать создавать компьютеры с производительностью 1–5 TFlops. Поскольку важнейшая составляющая таких систем – прикладное ПО, целесообразно сразу закупить несколько высокопроизводительных компьютеров, чтобы заняться разработкой программного обеспечения.
Мир снова возвращается к массовым рабочим станциям?
Сейчас мы переживаем переломный момент. В свое время рабочие станции были вытеснены ПК. Но сегодня идет новый виток развития, рабочие станции возвращаются – но уже на качественно новом уровне. С другой стороны, с уменьшением проектных норм в микроэлектронике до 45 нм и ниже мир идет к многоядерным процессорам. Многоядерность неизбежна, поскольку, по данным Intel, при столь малых размерах элементов технологический разброс параметров не позволяет размещать вычислительное ядро на площади больше 2 мм2. Иначе начинаются проблемы, в том числе – с синхронизацией всей системы на кристалле. Именно поэтому Intel сегодня и развивает проект процессора с 80 ядрами.
Следовательно, мы идем к мультипроцессорному компьютеру, ПК превращается в суперкомпьютер. Простому пользователю он не очень нужен. Суперкомпьютер – это уже другие требования к ПО, другие задачи. Поэтому можно ожидать, что будет в целом меняться технология обработки данных массовым пользователем. Появятся офисные центры обработки данных, у пользователей будут простые терминалы-коммуникаторы с хорошими каналами обмена данными. В этой области весь мир пока пребывает на старте, что дает нам определенный шанс.
А не проще ли купить все сразу – и компьютер, и прикладное ПО?
Сами компьютеры уровня 5–10 TFlops вполне доступны. А вот с ПО сложнее. Можно купить системы с ограниченными возможностями, например для работы на 15–20 процессорах. Не более. И это логично, поскольку системы моделирования для суперЭВМ – это новое технологическое оружие, в свободной продаже его нет. А без него в 21 веке промышленная держава не может существовать.
Какие шаги следует предпринять, чтобы не упустить время и воспользоваться предоставленным шансом в области суперкомпьютеров?
Проблема суперЭВМ – это проблема комплексная. Нужна комплексная программа перевооружения промышленности, прежде всего – в машиностроении. Необходимо выбрать наиболее крупные, системообразующие компании. Задачу упрощает создание ряда крупных госкорпораций. В их рамках необходимо задаться целью вывести на рынок к такому-то году такой-то крупный продукт. Вкладывать в проект государственные деньги и контролировать выполнение. При этом неизбежно встанет и будет решен вопрос информационных технологий, поскольку без них никакой конкурентный продукт сегодня не создать.
Если говорить собственно о программе развития высокопроизводительных вычислений, как составляющей комплексной программы технологического перевооружения промышленности, какие задачи необходимо решать в первую очередь?
Мне представляется, что в России нужно делать все, включая элементную базу. В качестве модели я предложил бы подход компании SiCortex. Путь построения гигантских компьютеров сложен, в том числе – в силу снижения их надежности. Ведущие мировые производители тратят огромное время на отладку своих систем. Если использовать чужой процессор, возникнут проблемы, связанные с несоответствиями спецификациям – не специально заложенные, а технологически неизбежные. Производитель о них знает и может учесть. Всем остальным гораздо сложнее. Конечно, в рамках единичных проектов сделать можно все. Но если мы хотим оснастить суперкомпьютерами все предприятия, нужен иной подход. Причем одно дело – использование суперкомпьютера для научных исследований в университете, другое дело – занимающее сотни часов моделирование сложных производственных процессов на предприятии. Цена сбоя резко возрастает. Поэтому всеми технологиями необходимо владеть самим. И не нужно заниматься универсальными процессорами – для каждого класса задач можно создавать специализированную упрощенную архитектуру.
Но самое главное – нам сейчас нужно воспитать конструкторов, которые смогут пользоваться компьютерами уровня 1–5 TFlops. А для этого должно быть соответствующее ПО, работающее с большим числом процессоров. Это – очень сложная проблема. К счастью, в России пока есть кому этим заниматься.
Поэтому первая задача сегодня – это разработка своего ПО. Компьютеров сейчас в российских университетах довольно много, покупаются новые. Но они используются не достаточно эффективно. Нужно, чтобы кто-то поставил задачу и за нее заплатил. А для этого необходимы и средства, и соответствующая инфраструктура. Вот этого элемента сегодня и не хватает сильнее всего. Поэтому первое, что нужно сделать – объединить существующие суперкомпьютерные центры – в РАН, в вузах и т.п. и поставить перед ними реальные задачи.
Проблема создания своей аппаратуры выглядит вторичной по отношению к ПО. Но начинать ею заниматься, то есть приступать к разработке собственной элементной базы для суперкомпьютеров, нужно уже сейчас. Иначе мы попросту не успеем. Ведь в этой области у нас технология прошлого века. И чтобы она стала современной, нужно просто купить необходимые средства разработки.
Точки роста у нас в России есть, но нужна объединяющая программа, нацеленная, как в ASCI, на конкретный результат. А не на терафлопсы как таковые. Тут важно волевое и именно государственное решение. Бизнес сам ничего не сделает – просто не хватит денег, чтобы в рамках конкретного проекта довести дело до реального продукта. Ведь восемь лет нужно только вкладывать. Кто это выдержит, кроме государства? Тем более, что инвестиции окупятся на совокупности различных проектов, в рамках экономики всей страны.
Но все это – вопросы конкретной программы, которую еще предстоит разработать. Столь большую работу можно начинать только после того, как будет принято соответствующее государственное решение. С другой стороны, начинать нужно сейчас, поскольку до 2020 года осталось немного. А вот тогда мы уже рискуем отстать "навсегда".
Кто должен сформулировать такую программу?
Сейчас по инициативе Е.П.Велихова в рамках комиссии по информатизации Госсовета была создана рабочая группа именно по суперкомпьютерам. Уже сложилось взаимодействие между рядом заинтересованных структур, таких как РАН, Росатом, МЧС и др. Основное положение проекта программы – технологическое перевооружение машиностроения, создание вычислительных суперкомпьютерных центров. Но самое главное – нельзя рассматривать и развивать высокопроизводительные вычисления как научную дисциплину. Все развитие должно идти в интересах реального сектора экономики, прежде всего – машиностроения.
Можно говорить об элементной базе, об архитектурах суперЭВМ, о чем угодно – но первична именно государственная программа, которая свяжет все заинтересованные и способные работать структуры, поставит перед ними задачи и финансово обеспечит их выполнение. И исходить нужно только из того, насколько это ускорит или замедлит продвижение к сугубо прагматической цели – к оснащению промышленности новым видом техники в интересах выпуска новой конкурентоспособной продукции.
Если Россия действительно хочет к 2020 году быть одной из пяти ведущих мировых держав, необходимо 30–50-кратное увеличение производительности труда. А это может обеспечить только "технологическое оружие" 21 века – массовые суперкомпьютерные технологии в промышленности, науке и образовании России.
Спасибо за содержательный рассказ. Вместе с вами призываем все здоровые силы общества к объединению для решения столь важной задачи. Иначе, действительно, вскоре задач не останется.
С В.Б.Бетелиным беседовали П.П.Мальцев и И.В.Шахнович
Отзывы читателей