InfiniBand
InfiniBand(
截至2014
规格
[编辑]性能
[编辑]SDR | DDR | QDR | FDR-10 | FDR | EDR | HDR | NDR | |
---|---|---|---|---|---|---|---|---|
2.5 | 5 | 10 | 10.3125 | 14.0625[6] | 25 | 50 | 100 | |
2 | 4 | 8 | 10 | 13.64 | 24.24 | |||
4x链路 |
8 | 16 | 32 | 40 | 54.54 | 96.97 | ||
12x链路 |
24 | 48 | 96 | 120 | 163.64 | 290.91 | ||
编码( |
8/10 | 8/10 | 8/10 | 64/66 | 64/66 | 64/66 | ||
5 | 2.5 | 1.3 | 0.7 | 0.7 | 0.5 | |||
2001、 2003 |
2005 | 2007 | 2011 | 2014[7] | 2017[7] | 2020 |
链路
InfiniBand也
拓 扑
[编辑]InfiniBand
消息
[编辑]InfiniBand以最
物理 互连
[编辑]Inifiniband Association也
API
[编辑]InfiniBandibv_open_device
ibv_post_send
,這些
历史
[编辑]InfiniBand
时间线
[编辑]- 2001
年 :Mellanox售出InfiniBridge 10Gbit/s设备和 超 过10,000个InfiniBand端 口 。[13] - 2002
年 :英 特 尔宣布 将 着眼 于开发PCI Express而不是 采 用 IB芯 片 ,以及微 软停止 IB开发以利于扩展 以太网,IB发展受挫,尽 管 Sun和 日立 继续支持 IB。[14] - 2003
年 :弗 吉 尼 亚理工学 院 暨州立 大学 建立 了 一 个InfiniBand集 群 ,在 当 时的TOP500排 名 第 三 。 - 2004
年 :IB开始作 为集群 互连采 用 ,对抗以太网上的 延 迟和价格。[12]OpenFabrics Alliance开发了 一个标准化的基于Linux的 InfiniBand软件栈。次 年 ,Linux添加 IB支持 。[15] - 2005
年 :IB开始被 实现为存储设备的互连。[16] - 2009
年 :世界 500强 超 级计算 机 中 ,259个使用 千兆以太网作为内部互连技术,181个使用 InfiniBand。[17] - 2010
年 :市 场领导者Mellanox和 Voltaire合 并,IB供 应商只 剩 下 另一个竞争 者 ——QLogic,它主要 是 光 纤通道 供 应商。[18] Oracle makes a major investment in Mellanox. - 2011
年 :FDR交换机 和 适配器 在 国 际超级计算 会 议上 宣布 。[19] - 2012
年 :英 特 尔收购QLogic的 InfiniBand技 术。[20] - 2016
年 :甲 骨 文 公司 制 造 自己 的 InfiniBand互连芯 片 和 交换单元。[21] - 2019
年 :Nvidia以69亿美元 收 购Mellanox。[22]
参 见
[编辑]参考 资料
[编辑]- ^
存 档副本 . [2017-01-09]. (原始 内容 存 档于2017-07-07). - ^
存 档副本 . [2017-01-09]. (原始 内容 存 档于2020-11-29). - ^ InfiniBand Cards - Overview. Mellanox. [30 July 2014]. (
原始 内容 存 档于2020-01-11). - ^ Implementing InfiniBand on IBM System p (IBM Redbook SG24-7351-00) (PDF). [2017-01-09]. (
原始 内容 存 档 (PDF)于2020-11-25). - ^ Vance, Ashlee. China Wrests Supercomputer Title From U.S.. New York Times. 2010-10-28 [2017-01-09]. (
原始 内容 存 档于2021-01-27). - ^
存 档副本 . [2017-01-09]. (原始 内容 存 档于2016-08-26). - ^ 7.0 7.1 7.2
存 档副本 . [2017-01-09]. (原始 内容 存 档于2011-09-29). - ^ http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf (页面
存 档备份,存 于互联网档案 馆) // Mellanox - ^ Panda, Dhabaleswar K.; Sayantan Sur. Network Speed Acceleration with IB and HSE (PDF). Designing Cloud and Grid Computing Systems with InfiniBand and High-Speed Ethernet. Newport Beach, CA, USA: CCGrid 2011: 23. 2011 [13 September 2014]. (
原始 内容 存 档 (PDF)于2020-06-13). - ^ Specification FAQ. ITA. [30 July 2014]. (
原始 内容 存 档于2016-11-24). - ^ Pentakalos, Odysseas. An Introduction to the InfiniBand Architecture. O'Reilly. [28 July 2014]. (
原始 内容 存 档于2014-08-09). - ^ 12.0 12.1 Kim, Ted. Brief History of InfiniBand: Hype to Pragmatism. Oracle. [28 July 2014]. (
原始 内容 存 档于2014年 8月 8日 ). - ^ Timeline. Mellanox Technologies. [28 July 2014]. (
原始 内容 存 档于2019-11-29). - ^ Sun confirms commitment to InfiniBand. The Register. [28 July 2014]. (
原始 内容 存 档于2019-06-20). - ^ Linux Kernel 2.6.11 Supports InfiniBand. [29 July 2014]. (
原始 内容 存 档于2020-10-21). - ^ Is InfiniBand poised for a comeback?, Infostor, [2017-01-09], (
原始 内容 存 档于2020-11-25) - ^ Lawson, Stephen. Two rival supercomputers duke it out for top spot. COMPUTERWORLD. [29 July 2014]. (
原始 内容 存 档于2017-01-10). - ^ Raffo, Dave. Largest InfiniBand vendors merge; eye converged networks. [29 July 2014]. (
原始 内容 存 档于2017-07-01). - ^ Mellanox Demos Souped-Up Version of InfiniBand. CIO. 20 June 2011 [1 August 2011]. (
原始 内容 存 档于2014-01-07). - ^ Intel Snaps Up InfiniBand Technology, Product Line from QLogic. HPCwire. January 23, 2012 [2012-01-27]. (
原始 内容 存 档于2012-01-27). - ^ Oracle Engineers Its Own InfiniBand Interconnects. The Next Platform. [2016-02-24]. (
原始 内容 存 档于2020-11-29). - ^ NVIDIA to Acquire Mellanox for $6.9 Billion. NVIDIA News. 2019-03-11 [2020-02-12]. (
原始 内容 存 档于2019-03-11).
外部 链接
[编辑]- Dissecting a Small InfiniBand Application Using the Verbs API, arXiv:1105.1827
- Mellanox Technologies: InfiniBand Performance Metrics