「InfiniBand」の版間の差分
削除された内容 追加された内容
→転送レート: あとのほうで「複数のベンダから構成された業界団体」とでてくるが、最初に説明しておくべきなので訂正。 |
→レイテンシ: メモリ遅延 |
||
(9人の利用者による、間の17版が非表示) | |||
1行目:
[[ファイル:Infinibandport.jpg|frame|right|InfiniBand スイッチのポート]]
'''InfiniBand'''(インフィニバンド)とは、非常に高いRAS(信頼性・可用性・保守性)を持つ基幹系・[[スーパーコンピュータ|HPC]]系の[[サーバ]]/[[コンピュータ・クラスター|クラスター]]用高速[[入出力|I/O]][[バス (コンピュータ)|バス]][[コンピュータ・アーキテクチャ|アーキテクチャ]]及びインターコネクトのこと<ref name="cwatch-2573">{{Cite web|和書|url=https://enterprise.watch.impress.co.jp/cda/special/2004/07/07/2573.html |title=伊勢雅英のInfiniBand探検隊 - 【前編】InfiniBandっていったい何? |accessdate=2021-10-18}}</ref>。システム間インターコネクト機構としては、RAS機能の他、他機構に比較して、低[[レイテンシ]]である点も特徴である<ref name="cwatch-2575">{{Cite web|和書|url=https://cloud.watch.impress.co.jp/epw/cda/special/2004/07/08/2575.html |title=伊勢雅英のInfiniBand探検隊 - 【中編】HPCCで高いパフォーマンスを発揮するInfiniBand |accessdate=2021-10-18}}</ref>。
== 概要 ==
7行目:
=== 転送レート ===
Single Data Rate (SDR) のInfiniBand レーン一本は最大2.5 Gbps双方向の転送速度を持つ。Double Data Rate (DDR) およびQuad Data Rate (QDR) は、1レーンあたりそれぞれ 5 Gbps, 10 Gbps双方向の転送速度を実現する。エンコーディングの変更されたFourteen Data Rate (FDR) は、1レーンあたり14.
SDR,DDR,QDRには[[8b/10b]]変換が用いられ、8bitのデータが10bit化され転送されるため、実効転送レートは上記の値の80%となる。よって実効転送レートはそれぞれ 2 Gbps, 4 Gbps, 8 Gbpsとなる。一方、FDRには[[64b/66b]]変換が用いられ、64bitのデータが66bit化され転送されるため、実効転送レートは上記の値の約97%となる。よって実効転送レートは 13.6 Gbpsとなる。
InfiniBandの接続を4本 (4X) もしくは12本 (12X) 束ねて高い転送速度を実現することができる。12X においてHDRでデータ転送を行った場合、618.75 Gbps (raw) あるいは600 Gbps(データ転送)となる。2018年11月現在、HDRに対応した製品が入手可能である。12Xは主に、[[コンピュータ・クラスター]]や[[スーパーコンピュータ]]のノード間接続やネットワークスイッチ間接続に用いられる。
また,複数のベンダから構成された業界団体「InfiniBand Trade Association」によるロードマップでは今後
{| class="wikitable"
|+構成ごとのスループット
|-
!
|-
!
!rowspan="2"|1レーン
!理論値
|2.5<ref name="iwatch-1214492">{{Cite web|和書|url=https://internet.watch.impress.co.jp/docs/column/nettech/1214492.html |title=SDRの2.5GT/secに加え、DDRの5GT/secとQDRの10GT/secを2004年に追加サポート |work=InfiniBandの現在 |author=大原雄介 |website=INTERNET Watch |date=2019-10-29 |accessdate=2021-10-18}}</ref>
|5{{R|iwatch-1214492}}
|10{{R|iwatch-1214492}}
|14.0625{{R|cwatch-506793}}
|25.78125<ref name="iwatch-1219907">{{Cite web|和書|url=https://internet.watch.impress.co.jp/docs/column/nettech/1219907.html |title=14GT/secの「InfiniBand FDR」と25GT/secの「InfiniBand EDR」、64b66b採用によるエラー増には「FEC」で対応 |work=InfiniBandの現在 |author=大原雄介 |website=INTERNET Watch |date=2019-11-26 |accessdate=2021-10-18}}</ref>
|53.125{{R|org.infinibandta/Overview-of-IBTA-Volume-1-Release-1.5}}
|255前後?▼
|106.25{{R|org.infinibandta/Overview-of-IBTA-Volume-1-Release-1.5}}
▲|{{TBA|255前後?}}
|-
! rowspan="5" | 実効値
| 2|| 4|| 8|| 13.64|| 25|| 50|| 100
|{{TBA|250?}}
|-
!2レーン
|{{N/A|未対応}}
|{{N/A|未対応}}
43 ⟶ 44行目:
|100
|200
|{{TBA|500?}}
|-
!
| 8|| 16|| 32|| 54.55|| 100|| 200|| 400
|{{TBA|1000?}}
|-
!8レーン
|16
|32
57 ⟶ 58行目:
|400
|800
|{{TBA|2000?}}
|-
!
| 24|| 48|| 96|| 163.64|| 300|| 600|| 1200
|{{TBA|3000?}}
|-
!colspan="3"|エンコーディング (bit)
| colspan="3" |8/10{{R|cwatch-506793}}
| colspan="3" |64/66{{Sfn|InfiniBand Trade Association|2020|loc=§ 5.3 BLOCK ENCODING (64B/66B)}}
|{{?}}
|{{TBA|未定}}▼
▲|未定
|-
!colspan="3"|規格発行年
|2000{{R|iwatch-1214492}}
|2004{{R|iwatch-1214492}}
|2004{{R|iwatch-1214492}}
|2012{{R|iwatch-1219907}}
|2012{{R|iwatch-1219907}}
|2020<ref>{{Cite press|url=https://www.infinibandta.org/ibta-enhances-data-center-performance-and-management-with-new-infiniband-architecture-specification-releases/ |title=IBTA Enhances Data Center Performance and Management with New InfiniBand Architecture Specification Releases - InfiniBand Trade Association |accessdate=2021-10-18}}</ref>
|2021{{R|org.infinibandta/Overview-of-IBTA-Volume-1-Release-1.5}}
|{{TBA|2023以降}}
|}
=== レイテンシ ===
[[レイテンシ]]はSDR スイッチでは200ナノ秒
InfiniBand は RDMA([[Remote Direct Memory Access]])をサポートしており、CPU オーバヘッドを低く抑えることが可能である{{R|cwatch-2575}}。RDMA 命令のレイテンシは、1マイクロ秒以下である(Mellanox 社 ConnectX の場合)。参考までに、[[DDR3 SDRAM]] の[[メモリ遅延|メモリレイテンシ]]は0.1マイクロ秒(100ナノ秒)程度である。
=== ネットワーク構成 ===
InfiniBandにおける[[ネットワーク構成]]は、[[Ethernet]]のような階層型ネットワークではなく、スイッチ型ファブリック接続を採用している<ref name="cwatch-506793">{{Cite web|和書|url=https://cloud.watch.impress.co.jp/docs/special/506793.html |title=InfiniBand探検隊リターンズ【前編】~2012年現在も進化を続けるInfiniBandの最新状況 |accessdate=2021-10-18}}</ref>。
多くの[[メインフレーム]]のチャネル・モデルのように、すべての転送はChannel Adapter間で行われる。各プロセッサノードはHost Channel Adapter (HCA) を持ち、各外部デバイスはTarget Channel Adapter (TCA) を持つ{{R|cwatch-506793}}。これらのChannel Adapterはまたセキュリティ情報、[[QoS]]情報のやり取りが可能である。
=== メッセージ ===
105 ⟶ 102行目:
[[1998年]]後半、基幹業務に使用される各種[[サーバ]]の計算性能は、[[ムーアの法則]]に従い、ほぼ18カ月に2倍のペースで高速化されてきていた。しかし、サーバ内の[[バス (コンピュータ)|バス]][[コンピュータ・アーキテクチャ|アーキテクチャ]]は機械・電気的制限により、その進化に追い付けず、[[コンピュータシステム]]性能向上の[[ボトルネック]]となっていた。
そこで、[[インテル]]を中心に[[スイッチ]]型ファブリックインターコネクトテクノロジをベースとした新しいI/OアーキテクチャとしてNGIO (Next Generation I/O)が提唱され、規格定義を開始した<ref name="iwatch-1204778">{{Cite web|和書|url=https://internet.watch.impress.co.jp/docs/column/nettech/1204778.html |title=汎用的なInterconnectへ進化しつつあるInfiniBandの成り立ちは? |work=InfiniBandの現在 |author=大原雄介 |website=INTERNET Watch |date=2019-09-03 |accessdate=2019-09-14}}</ref>。一方、[[タンデムコンピューターズ]]社の[[ServerNet]]の流れを汲む[[コンパック|Compaq]](HPに吸収合併された)、[[ヒューレット・パッカード|HP]]社、[[IBM]]社の3社は、同様の技術をサポートしたFIO (Future I/O)を提唱した{{R|iwatch-1204778}}。
ところが、[[1999年]]の[[インテル・デベロッパー・フォーラム|IDF Spring 1999]]において、NGIOの情報が公開された際、FIOの仕様の一部が取り込まれており、最終的には両陣営が歩み寄り、SIO (System I/O)として統合されることとなった{{R|iwatch-1204778}}。
111 ⟶ 108行目:
その後、2000年1月に、SIOはInfiniBandに改称された{{R|iwatch-1204778}}。
2000年10月には、
当初本規格のリーダ的存在だったインテルが撤退を表明し、動向が注目されたが、その後HPC分野を中心に広く利用されるようになっている{{R|iwatch-1204778}}。
118 ⟶ 115行目:
多くの計算機ノードを接続して構成される[[高性能計算|HPC]] 業界では、InfiniBandのシェアは高い。2015年11月時点で[[TOP500]]ではもっとも使われている接続方法となっていた(Mellanox調べ)<ref>{{Cite web |date=2015-11 |url=http://www.mellanox.com/related-docs/applications/TOP500_Nov_2015.pdf|format=PDF |title=Interconnect Your FutureEnabling the Best Datacenter Return on Investment|publisher= Mellanox Technologies |accessdate=2015-11-23}}</ref>。しかしその後中国のシステムを中心にイーサネットの採用が増え2017年11月時点ではInfiniBandの採用数は減少し2番手に転落している<ref>{{Cite web |date=2015-11 |url=https://www.top500.org/news/top500-meanderings-infiniband-fends-off-supercomputing-challengers/ |title= TOP500 Meanderings: InfiniBand Fends Off Supercomputing Challengers |accessdate=2019-04-17}}</ref>。
各ベンダのブレード系サーバやグリッド系サーバの接続でオプションとして用意されている<ref>[[日本電気]]Express 5800(MellanoxのOEM)、[[富士通]]PRIMEQUEST(MellanoxのOEM)、[[
日本での使用例としては、[[ヒューレット・パッカード]]のサーバを使用してNECが構築した[[東京工業大学]]のPCクラスタ[[TSUBAME]]2.0や、[[京都大学]]や[[筑波大学]]の[[T2Kオープンスパコン]]が挙げられる<ref>同じT2Kでも[[東京大学]]のシステムはInfiniBandではなく、[[Myrinet]]を採用している</ref>。
[[ストレージ]]では、[[NetApp]]、[[ピュア・ストレージ]]、[[EMCコーポレーション|EMC]]といったメーカーの製品でホストI/Oのオプションとして用意されている。
==脚注==
{{脚注ヘルプ}}
{{Reflist}}
== 参考文献 ==
*{{Citation|title=InfiniBand Architecture Specification Volume 2, Release 1.4 |url=https://cw.infinibandta.org/document/dl/8566 |author=InfiniBand Trade Association |year=2020 |accessdate=2021-10-18 |ref=harv}}
== 関連項目 ==
138 ⟶ 135行目:
{{コンピュータバス}}
{{Normdaten}}
[[Category:コンピュータバス]]
[[Category:並列コンピューティング]]
|