2023年10月26日08時00分 / 提供:マイナビニュース
生成AIの利用拡大などに伴い、データセンターの電力消費の増大が大きな課題となっている。その実態について、電子情報技術産業協会(JEITA)が、CEATEC 2023で行われたオンラインセッション「ITトレンド調査~クラウド/AI利用動向とデータセンター冷却技術動向」のなかで明らかにした。
また、富士キメラ総研が「データセンターの高効率冷却技術最新動向」について説明し、「データセンターの空調は岐路に立っている」との指摘した。サーバの電力消費の課題や、データセンターにおける新たな冷却方法への取り組みはどうなっているのだろうか。
消費電力量の削減が求められるサーバ
JEITAのサーバ消費電力量動向調査は、サーバ出荷統計に参加するメーカーの出荷実績データをもとに、国内総量を推計しているもので、2001年度から実施している。
これによると、2022年度の国内におけるサーバ消費電力量は、前年度から5億kWh増加の98億kWhとなった。また、2023年度には初めて100億kWhを突破し、103億kWhに達すると予測。2025年度には105億kWhになると推定されている。
JEITA プラットフォームグリーンIT専門委員会委員長の佐藤宏氏は「サーバの稼働台数は2010年度をピークに減少傾向にある。その一方で、2006年度から2013年度にかけては省エネ化が進み、1台あたりの電力量は減少し続けたものの、2014年度以降はCPUのコア数増加とマルチプロセッサ化が進展し、一転して増加傾向に転じている」という。
2013年度にはサーバ1台あたりの電力量は2208KWhであったが、2022年度には4731KWhとなり、約10年間で2倍以上に増えているのが実態だ。さらに、今後も電力量は増加すると予測しており、2023年度には5110KWh、2025年度には5354KWhになると見ている。
その一方で、仮想化による省エネ効果が大きいことを指摘。2022年度実績で、74%もの電力削減効果が生まれていると試算した。「2021年度には69%の削減効果だったが、そこから5%も削減効果が高まっている。今後もその傾向が進むと考えられる」とコメント。2025年度には仮想化によって、83%の削減効果を見込んでいる。
これらの動きを捉えながら、佐藤委員長は「CPUのコア数増加とマルチプロセッサ化が進み、1台あたりの物理サーバ消費電力量は、今後も増加していく傾向にある。さらに、ITプラットフォームの新たな需要拡大でサーバ全体の年間消費電力量は、今後も増加すると想定される」とする一方、「消費電力量の削減には、高効率な冷却技術を採用し、冷却電力を削減するなど、ラックあたりの省エネ効果を増やす取り組みが必要である」と提言した。
水冷や液浸などの冷却技術の浸透しない日本
一方、富士キメラ総研によると、国内商用データセンターの消費電力は、拡大傾向が続いており、2030年度には、2022年度の2.1倍に達すると予測。年間で1万5000GWh規模に達することが見込まれている。
富士キメラ総研の羽賀史人氏は、「クラウドサービスやAI市場の拡大による消費電力の増大や、データセンターの大規模化が要因となっている。政府では、2050年までに温室効果ガスの排出を全体でゼロにするカーボンニュートラルの実現を宣言しており、社会課題として、データセンター事業における再エネ活用比率の向上、省エネ性能の向上が求められている」と述べながら、「省エネ化に向けては、データセンターの冷却効率を促す水冷システムや液浸などの高効率な冷却技術の普及が進んでいない点が課題である」と指摘した。
同社の調査によると、水冷サーバをデータセンターに設置しているケースは僅少となり、数字には表れないのが実態となった。「水冷サーバに対する認知度が低いことが背景にある」と分析した。
サーバルームに冷却水を引き込むことができるデータセンターは50%であるが、これらのデータセンターにおいても、ユーザーからの了承を条件とする傾向が高く、それが水冷サーバの導入の遅れにつながっているという。
羽賀氏は「精密機器の管理を目的とするサーバルーム内に水の引き込みは厳禁であるという認識が背景にある。また、2000年代に設置されたデータセンターでは、物理的に冷却水の引き込みが困難である場合が多い」と指摘した。
既設のデータセンターに水冷サーバを設置できると回答したデータセンターは3割に留まっているほか、水冷ラックを設置しているケースは1割、水冷ラックを設置可能なデータセンターは3割に留まった。
その一方で、同氏は「水冷サーバの冷却能力については、データセンター事業者間でも検証を進めている例がある。背景には、既設の空調方式では冷却できない高負荷システムや高発熱システムへの対応策として関心が高まっている点があげられる。また、水冷ラックについては、コストが高いという課題があるが、ユーザーの持ち込みによって設置した事例があり、水冷サーバに比べて認知は高く、検証が進んでいるともいえる。1ラックあたりの平均消費電力が10kWh~15kWh以上になった場合には冷却ラックの利用が進むことになるだろう」と予測した。
さらに、液浸冷却については、現時点で採用している国内データセンターは皆無と判断。羽賀氏は「検証まで至っているデータセンター事業者もわずかである。水冷サーバや水冷ラックに比べて新たな技術であること、液浸対応のサーバ、ストレージ、ネットワーク機器を揃える必要があること、温暖化係数が高い冷媒を使用しているケースがあることなどが、導入の障害になっている」という。
GPUサーバを搭載したラックの設置ニーズは今後も高まる
富士キメラ総研の調べによると、データセンターのサーバルームにおける温度設定については、ASHRAE(米国暖房冷凍空調学会)のガイドラインである18℃~27℃内の温度設定としているデータセンターが多く、国内では26℃、25℃、24℃が、それぞれ30%ずつとなり、ここで9割を占めた。だが、特定のユーザーの要望により、ハウジングサービスの一部エリアでは、27℃以上で運用しているケースもみられたという。
どの程度の温度設定まで対応できるかという緩和設定温度帯の調査では、30℃が最も多く50%を占めた。データセンターの温度を高めることで冷却コストの削減が可能ともいえるが、設定温度を高める際の阻害要因として、サーバルーム内での作業者の健康への配慮のほか、温度耐性が低い機器が一部にあったり、サーバの故障率上昇を懸念したり、ユーザーからの了承が得られないことが、温度を上げられない要因になっているという。
羽賀氏は「ICT機器に対する耐熱化は進展しているが、ハウジングサービスでは複数のユーザーが利用しており、了解を得ることへの障壁が高いこと、30℃以上の環境ではラック設置や運用保守を行う作業者の労働環境が厳しくなることが課題といえる。サーバルーム内の業務をロボットで補い、無人化する必要もあるだろう。また、特定のラックの温度耐性を高めるだけでなく、耐熱化が進んでいないストレージやネットワーク機器を含めて、すべての機器を耐環境機器にする必要があり、これもデータセンター内の温度上昇の妨げになっている」とした。
なお、湿度設定についてもASHRAEの基準としている20~80%の範囲内で稼働している状況にあり、最も多いのが湿度40~70%の範囲で全体の37.5%となった。
クーリングタワーおよび同様の機能を有する空調設備であるフリークーリングの導入率は30%に留まっているが、昨今開設されているデータセンターでは、フリークーリング機能を有するチラーや、ターボ冷凍機を採用するケースが増えているという。
また、10kW/ラック以上の高発熱ラックへの標準対応状況は、データセンター全体の2割であり、同氏は「既存データセンターでは、空調設備を1スポットに集約化することが難しく、高発熱ラックを分散して設置することになる。既存のデータセンターでは、高発熱ラックを標準化して導入するのが困難なケースが多い」と指摘した。
これらの結果をもとに、羽賀氏は「水冷システムや液浸を導入しているデータセンターは日本では少ないのが現状である。だが、生成AIの基盤として、GPUサーバが多く利用されるようになり、生成AIの利用拡大、参入企業の増大、投資の増加に伴って、GPUサーバを搭載したラックの設置ニーズは今後も高まる。データセンターの空調は岐路に立っている。従来のパッケージエアコンの利用や、空冷による冷却設備だけでは、データセンターを冷やせない。高負荷、高発熱、高集積のニーズに耐えられる空調システムとして、水冷システムや液浸の普及が期待される」と語った。