Когда речь заходит о миниатюризации компьютеров, принято рассуждать о технологиях, которые позволяют упаковать элементы чипов ещё плотнее, чем раньше. Но зачастую из вида упускается один важный момент — перегрев. Решение задачи эффективного охлаждения процессоров — ключ к дальнейшему развитию отрасли. В этом уверены специалисты небезызвестной компании.
Учёные из IBM считают, что радикально улучшив отвод тепла от микросхем, можно одним выстрелом убить сразу двух зайцев. Во-первых, продвинуться на пути миниатюризации вычислительных комплексов, а во-вторых, серьёзно снизить стоимость эксплуатации суперкомпьютерных комплексов и центров хранения/обработки данных. При этом не придётся отказываться от кремния как традиционной основы технологии микросхем.
Соблазнительно, конечно, попробовать перейти на чипы из карбида кремния, способные работать при температуре до 650 градусов Цельсия. Но даже им потребуется хоть какая-то система охлаждения. Дело в том, что современные серийные процессоры обладают теплоотдачей 50-100 ватт на квадратный сантиметр площади, что на порядок больше, чем у конфорок электрической кухонной плиты. Если чип вовремя не отключить, без охлаждения он очень быстро выходит из строя.
Процессоры будущего, по прогнозу IBM, продемонстрируют ещё большую генерацию тепла на единицу поверхности. Без охлаждения они будут нагреваться до температуры поверхности Солнца (в теории, потому что ещё раньше расплавятся).
Так что карбид кремния сам по себе проблемы не решит и, судя по всему, останется экзотикой для узких областей применения (чипы в космических аппаратах или внутри газотурбинных двигателей). Но, может, лучше менять не микросхемы, а способ их охлаждения? На ум сразу приходит вода.
Собственно водяное охлаждение чипов придумано давно. Но если подопечный — очень мощная компьютерная система, недостаточно просто доставить жидкость к поверхности процессоров. Нужно очень равномерно распределить этот поток, а потом быстро отвести нагретую воду прочь.
В поиске наилучшей схемы IBM обратилась к природным патентам. Специалисты вдохновились кровеносной системой человека. В ней крупные артерии несут насыщенную кислородом кровь к периферии организма, постепенно разбиваясь на всё более мелкие сосуды, в конце концов заканчиваясь мельчайшими капиллярами. Обратный ток обеспечивает вторая сеть из капилляров, сливающихся в более крупные «трубопроводы», в свою очередь несущие кровоток к большим венам.
В комплексе от IBM крупные трубки постепенно ветвятся на всё более мелкие, по мере того как вода поступает к ключевым местам компьютерных плат. Но главное – на процессоре установлен тонкий бутерброд с лабиринтом из отверстий. По мере приближения к поверхности чипа водяной поток расходится по мелким каналам поперечником в доли миллиметра.
Аналогичная сеть капилляров и трубок собирает нагретую воду. При этом температура подходящей жидкости равна 60 градусам Цельсия, а уходящей — 65-68 °C. Рабочая же температура чипа не превышает 80-85 градусов.
Прототипом крупных ЭВМ с такой системой охлаждения стал суперкомпьютер Aquasar, запущенный в мае 2010 года. Это совместное детище европейского исследовательского отделения IBM (IBM Research – Zurich) и швейцарского федерального технического университета (ETH Zürich), где и расположена удивительная машина.
Аппарат размером с крупный холодильник представляет собой кластер из 42 серверов двух моделей (QS22 и HS22). 28 из них (22 QS22 и 6 HS22) оборудованы инновационным водяным охлаждением, а остальные (11 QS22 и 3 HS22) — обычным воздушным. Это сделано для сравнения двух технологий в равных условиях.
Любопытная особенность разработки: отведённая от суперкомпьютера вода поступает в теплообменник, где отдаёт энергию воде, которая курсирует в системе обогрева здания. В обычных дата-центрах холодильные установки создают поток воздуха с температурой 15°C. Воздух проходит через стойки с серверами, а нагретый воздушный поток, как правило, без всякой пользы выбрасывается на улицу.
Неудивительно, что нынешние центры обработки данных 50% потребляемой энергии тратят на холодильные агрегаты. Водяное охлаждение «Аквазара» намного эффективнее: в целом суперкомпьютер на 40% экономичнее сопоставимых по производительности машин с воздушным охлаждением, — утверждают швейцарцы.
При суммарной скорости в шесть триллионов операций в секунду комплекс потребляет около 20 киловатт. Это не рекорд, но параметр достойный. Так, первая десятка в рейтинге «самых зелёных» суперкомпьютеров планеты (Green500) обладает производительностью от 400 до 770 миллионов операций в секунду на ватт потребляемой мощности. Кстати, недавно отметившийся рекордом скорости китайский суперкомпьютер обладает показателем экономичности в 620 мегафлопсов на ватт.
Но если вспомнить, что до 9 киловатт дарового тепла от «Аквазара» идут на полезный обогрев помещений университета, параметры отдельно взятой «водяной», то есть экспериментальной части выглядят ещё привлекательнее.
IBM сообщает (PDF-документ), что при общей производительности 22-х серверов QS22 в 3,4 терафлопса они вместе с сопутствующим оборудованием тянут из сети 7,5 киловатта мощности. Но при этом 4,5 кВт генерируют в виде утилизируемого тепла. С его учётом эффективность «Аквазара» составляет уже 1,1 гигафлопса на ватт.
Технология охлаждения «Аквазара» масштабируется до машин петафлопного класса. Но для IBM это только исследовательский полигон. Испытания компьютера помогут инженерам и учёным в разработке ещё более «уплотнённых» машин.
Доктор Бруно Мишель (Bruno Michel), руководящий в IBM Research — Zurich исследованиями по системам охлаждения чипов, один из главных авторов «Аквазара», говорит: «Мы планируем, что за 10-15 лет сможем утрамбовать такую систему в кубик сахара».
Чтобы достичь уровня «кубика сахара», IBM намерена создать чипы, в которых сразу несколько процессоров сложены один на другой практически без зазора. Между такими схемами будут проложены разветвлённые сети водяных каналов толщиной с человеческий волос.
Столь плотная упаковка решит сразу несколько проблем: радикально сократится расстояние между чипами, что благотворно скажется на скорости вычислений, уменьшится длина соединений (будет ниже энергопотребление), общий размер компьютера окажется скромнее.
Этот подход, своего рода третье измерение для закона Мура, IBM уже апробирует в своих лабораториях. Пару лет назад она сумела организовать охлаждение трёхмерного чипа, а позже построила сэндвич из четырёх процессоров. С такими устройствами компания намерена отработать тончайшие каналы для подвода воды, а ещё вертикальные электрические связи между слоями схем (они должны быть водонепроницаемы).
Компьютер такого рода должен оказаться быстрым, компактным и «зелёным». Последнему обстоятельству обрадуются не только экологи. «В будущем компьютеры будут доминировать сообразно энергетическим затратам — работа дата-центра будет обходиться дороже, чем его постройка», — прогнозирует Мишель.
Собственно, уже сейчас владельцы мощных конгломератов компьютеров ощущают на своих кошельках, сколь немало стоит подпитывать «прогресс» из розетки. По оценке аналитической компании IDC, в прошлом году дата-центры Земли «сожгли» 330 тераватт-часов или примерно два процента от мировой выработки электроэнергии.