«`html
Масштабы поражают. Прогнозы указывают на то, что в период с настоящего момента и до 2029 года в центры обработки данных, поддерживающие искусственный интеллект, будет инвестировано около 3 триллионов долларов США по всему миру.
По оценкам Morgan Stanley, примерно половина этого капитала будет направлена на строительные расходы, а оставшаяся часть — на высокопроизводительное оборудование, необходимое для революции в области ИИ.
Чтобы понять масштаб этой цифры, она приблизительно равна общему объему производства экономики Франции в 2024 году.
В Великобритании, как ожидается, будет построено еще 100 центров обработки данных в ближайшие годы для удовлетворения растущего спроса на возможности обработки ИИ.
Примечательно, что некоторые из этих объектов будут разработаны для Microsoft, которая недавно объявила об инвестициях в размере 30 миллиардов долларов США в инфраструктуру ИИ Великобритании.
Это поднимает вопрос: чем эти ориентированные на ИИ центры обработки данных отличаются от обычных объектов, в которых размещаются компьютерные серверы, поддерживающие повседневные действия, такие как хранение личных фотографий, управление учетными записями в социальных сетях и запуск бизнес-приложений?
Кроме того, оправданы ли эти существенные инвестиции?
Центры обработки данных расширяются в масштабе уже много лет. Термин «гипермасштаб» был введен для классификации объектов, требующих десятков мегаватт мощности, который с тех пор был превзойден «гигаваттами», представляющими собой в тысячу раз большую мощность.
Однако ИИ резко ускорил эту тенденцию. Большинство моделей ИИ полагаются на специализированные компьютерные чипы от Nvidia для выполнения сложных задач.
Эти чипы Nvidia размещаются в больших шкафах, каждый из которых стоит около 4 миллионов долларов США, и имеют решающее значение для понимания уникальных характеристик центров обработки данных ИИ.
Большие языковые модели (LLM), используемые для обучения программного обеспечения ИИ, требуют разбиения языка на мельчайшие компоненты смысла. Это требует сети компьютеров, работающих согласованно и в непосредственной физической близости.
Близость имеет решающее значение, поскольку каждый метр, разделяющий два чипа, добавляет наносекунду — одну миллиардную долю секунды — ко времени обработки.
Хотя эти задержки кажутся незначительными, они накапливаются во всем хранилище компьютеров, снижая общую производительность, необходимую для приложений ИИ.
Шкафы обработки ИИ плотно упакованы, чтобы минимизировать задержку и обеспечить параллельную обработку, позволяя системе функционировать как единый высокопроизводительный компьютер. Этот акцент на плотности является ключевым фактором в проектировании центров обработки данных ИИ.
Эта плотность смягчает узкие места обработки, обнаруженные в обычных центрах обработки данных, где процессоры расположены на расстоянии нескольких метров друг от друга.
Однако эти плотные массивы шкафов потребляют значительное количество энергии, а обучение LLM приводит к существенным скачкам спроса на электроэнергию.
Эти скачки сопоставимы с тысячами домохозяйств, одновременно включающих и выключающих чайники каждые несколько секунд.
Такой колеблющийся спрос требует тщательного управления локальной энергосистемой.
Даниэль Бизо, аналитик The Uptime Institute, консалтинговой компании по проектированию центров обработки данных, профессионально изучает центры обработки данных.
«По сравнению с постоянной нагрузкой стандартных центров обработки данных, энергетические потребности рабочих нагрузок ИИ создают уникальную нагрузку на сеть».
Г-н Бизо описывает эти внезапные всплески ИИ как отдельную проблему, аналогичную примеру с синхронизированным чайником.
«Масштаб рабочей нагрузки беспрецедентен», — заявляет г-н Бизо. «Решение этой экстремальной инженерной задачи сопоставимо с программой «Аполлон».
Операторы центров обработки данных изучают различные решения для смягчения проблем, связанных с энергией.
В интервью BBC ранее в этом месяце генеральный директор Nvidia Дженсен Хуанг предложил использовать больше автономных газовых турбин в Великобритании, чтобы облегчить нагрузку на государственную сеть.
Он также отметил, что сам ИИ может оптимизировать конструкцию газовых турбин, солнечных панелей, ветряных турбин и систем термоядерной энергии, способствуя более экономичному устойчивому производству энергии.
Microsoft вкладывает значительные средства в энергетические проекты, включая сотрудничество с Constellation Energy, чтобы вновь ввести в эксплуатацию атомную электростанцию на Три-Майл-Айленд.
Alphabet’s Google также инвестирует в атомную энергетику в рамках своей цели по переходу на безуглеродную энергию к 2030 году.
Между тем, Amazon Web Services (AWS) утверждает, что уже является крупнейшим корпоративным покупателем возобновляемой энергии в мире.
Индустрия центров обработки данных остро осознает нормативное внимание к потенциальному воздействию объектов ИИ на местную инфраструктуру и окружающую среду, особенно в отношении высокого энергопотребления.
Еще одним экологическим аспектом является значительное водоснабжение, необходимое для охлаждения высокопроизводительных чипов.
В Вирджинии, штате США с растущей концентрацией центров обработки данных, обслуживающих крупные технологические компании, такие как Amazon и Google, рассматривается закон, связывающий одобрение новых площадок с уровнями потребления воды.
В Великобритании предлагаемый объект ИИ в северном Линкольншире столкнулся с возражениями со стороны Anglian Water, регионального поставщика воды.
Anglian Water подчеркивает, что не обязана предоставлять воду для небытовых целей, и предлагает использовать переработанную воду из очистки сточных вод в качестве охлаждающего агента вместо питьевой воды.
Учитывая эти практические проблемы и существенные затраты, является ли движение центров обработки данных ИИ потенциальным пузырем?
Во время недавней конференции по центрам обработки данных один из докладчиков использовал термин «хвастливые ватты» для описания завышенных заявлений отрасли относительно масштаба предлагаемых объектов ИИ.
Заль Лимбувала, специалист по центрам обработки данных в технологической инвестиционной фирме DTCP, признает важные вопросы, касающиеся долгосрочной жизнеспособности расходов на центры обработки данных ИИ.
«Текущая траектория кажется неустойчивой. Было много преувеличений. Однако инвестиции должны приносить прибыль, иначе рынок самокорректируется».
Несмотря на эти оговорки, он утверждает, что ИИ заслуживает особого внимания в инвестиционных стратегиях. «ИИ окажет большее влияние, чем предыдущие технологии, включая Интернет. Поэтому вполне возможно, что нам потребуются все эти гигаватты».
Он отмечает, что, помимо гипербол, центры обработки данных ИИ «являются недвижимостью технологического мира». В отличие от спекулятивных технологических пузырей, таких как бум доткомов 1990-х годов, центры обработки данных ИИ представляют собой материальные активы. Тем не менее, нынешний всплеск расходов вряд ли сохранится бесконечно.
Новый орган сосредоточится на развитии и регулировании искусственного интеллекта на острове.
Nvidia заявила, что будет поставлять высокопроизводительные чипы, необходимые для центров обработки данных OpenAI.
Стоктон проводит испытания ИИ в таких областях, как выявление мошенничества и прогнозирование потребностей в социальном обслуживании.
Развертывание является частью партнерства между учреждением и OpenAI, которая разрабатывает ChatGPT.
Работы должны начаться в декабре, поскольку британская технологическая фирма стремится создать «2 ГВт суперкомпьютерных мощностей».
«`