Skip to content
oraccha edited this page Jan 14, 2013 · 1 revision

PCクラスタのインタコネクト用規格だと思っていたけど,内部から外部I/Oまでを置き換えると言う具合にもっと広いターゲットが想定されていたらしい.

  • [http://www.infinibandta.org/ InfiniBand Trade Association]
  • LSIを作っているのは,事実上Mellanox社だけ

Next Generation I/O(Intel) + Future I/O(IBM, Compaq, HP) -> System I/O -> InfiniBand

  • Intel は内部 I/O 技術として PCI Express を提唱し,方向転換してしまった.

高性能汎用インタコネクト

  • 1x(2Gbps),4x(8Gbps),12x(24Gbps)をサポート.SDR,DDR,QDR.
  • 機能てんこもりでフルスペックをサポートした NIC は存在しない?

[http://www.topspin.com/ TopSpin] と富士通の製品が有名?

  • [http://japan.cnet.com/news/biz/story/0,2000050156,20082813,00.htm シスコ、InfiniBandスイッチメーカーのトップスピンを買収] (c|net 2005-04-15) だって.

Linux 2.6.11 にようやくドライバがマージされるらしい.

APIがなく,verbによる動作仕様を規定している.

ユーザレベルソケット


  • [http://www.atmarkit.co.jp/fsys/kaisetsu/021infiniband2003/infiniband2003.html サーバ・クラスタリングで注目される高速I/Oテクノロジ「InfiniBand」] (@IT 2003-04-25)
    • NIC/GbE でのクラスタリングでは CPU 占有率が 70% 近くに達するのに対して,InfiniBand なら 4〜5% で済むそうな.
  • [http://www.atmarkit.co.jp/im/cop/serial/storstrat/05/01.html [ヴォルテア] InfiniBandが企業でブレークする理由] (@IT 2006-08-01)
  • [http://www.atmarkit.co.jp/im/cop/serial/storstrat/13/01.html [メラノックス]次のデータセンター接続技術は何か] (@IT 2007-12-18)
    • 単一のチップで InfiniBand だけじゃなく 10GbE もサポートしているのがユニーク。
    • CEE (Converged Enhanced Ethernet)、Fibre Channel over Ethernetの標準化。
Clone this wiki locally