(Translated by https://www.hiragana.jp/)
InfiniBand - 维基百科,自由的百科全书 とべ转到内容ないよう

InfiniBand

本页使用了标题或全文手工转换
维基百科ひゃっか自由じゆうてき百科ひゃっかぜん

InfiniBandちょく译为“无限带宽”わざ术,缩写为IBいち个用于高性能こうせいのう计算てき计算つくえ网络通信つうしん标准,它具有ぐゆう极高てき吞吐りょうかず极低てきのべよう于计さんつくえあずか计算つくえ间的すうすえ互连。InfiniBand也用さくふく务器あずかそん储系统之间的直接ちょくせつある交换互连,以及そん储系统之间的互连。[1]

截至2014ねん,它是ちょう级计さんつくえさい常用じょうようてき互连わざ术。MellanoxえいMellanoxえいとくせいづくりInfiniBandしゅつくえ总线适配あみ交換こうかん,并根すえ2016ねん2がつてき报道,[2]かぶとこつぶん公司こうしやめ经设计了自己じこてきInfiniband交换つくえ单元和服わふく务器适配しんへんよう自己じこてき产品线和だいさんぽう。Mellanox IB卡可ようSolarisRHELSLESえいSUSE_Linux_Enterprise_ServerWindowsHP-UXVMware ESXえいVMware ESX[3] AIX[4]它被设计为扩展使用しよう交换结构えいSwitched fabricてき网络つぶせ

さく为互连技术,IBあずか以太网ひかり纤通どうかず其他专有わざ[5]れいかつかみなり公司こうしてきSeaStar)竞争。该技术由InfiniBand贸易联盟推动。

规格

[编辑]

性能せいのう

[编辑]
とくせい
  SDR DDR QDRえいQuad Data Rate FDR-10 FDR EDR HDR NDR
しんれいそくりつ (Gb/s) 2.5 5 10 10.3125 14.0625[6] 25 50 100
有效ゆうこう吞吐りょうGb/sまい1x[7] 2 4 8 10 13.64 24.24
4x链路速度そくど (Gbit/s) 8 16 32 40 54.54 96.97
12x链路速度そくど (Gbit/s) 24 48 96 120 163.64 290.91
编码(もと 8/10 8/10 8/10 64/66えい64b/66b encoding 64/66 64/66
のべ迟时间(ほろびょう[8] 5 2.5 1.3 0.7 0.7 0.5
とし[9] 2001、
2003
2005 2007 2011 2014[7] 2017[7] 2020ねんきさき

链路以聚あいだい多数たすうけい使用しよういち个4X聚合。12X链路どおり常用じょうよう计算つくえしゅうぐんちょう级计さんつくえ互连,以及よう于内あみ交換こうかん连接。

InfiniBand也提供ていきょう远程直接ちょくせつないそん访问(RDMA)能力のうりょく以降いこうていCPU负载。

つぶせ

[编辑]

InfiniBand使用しよういち交换结构えいswitched fabricつぶせ扑,不同ふどう于早てきどもとおる媒介ばいかい以太网所有しょゆう传输开始ある结束于通どう适配まい个处包含ほうがん一个主机通道适配器(HCA),まい个外设具有ぐゆう一个目标通道适配器(TCA)。这些适配也可以交换安全あんぜんせいあるQoSしんいき

消息しょうそく

[编辑]

InfiniBand以最だか4 KBてきふうつつみ发送消息しょうそくすうすえ一条いちじょう消息しょうそく以为:

物理ぶつり互连

[编辑]
InfiniBandあずかCX4/SFF-8470连接てき交换

じょりょういたしき连接,它还支持しじゆうげん无源铜缆(最多さいた30まいひかり最多さいた10公里くり)。[10]使用しようQSFPえいQSFP连接

Inifiniband Association也指定していりょうCXPえいCXP (connector)铜连せっけい统,よう于通过铜缆或ゆう源光げんこう缆达到だか达120 Gbit/sてき能力のうりょく

API

[编辑]

InfiniBandぼつゆう标准てき应用ほどじょせっこう標準ひょうじゅんただれついちくみてき動作どうされいibv_open_device ある ibv_post_send,這些必須ひっす存在そんざいてきほどじょある方法ほうほうてき抽象ちゅうしょう表示ひょうじ方式ほうしき。這些ほどじょてき語法ごほうよし供應きょうおうしょうくだり定義ていぎ事實じじつ標準ひょうじゅんてき軟體うずたかたたみ標準ひょうじゅんゆかり OpenFabrics AllianceえいOpenFabrics Alliance ところ開發かいはつてき。它以そう許可きょかしょう方式ほうしきはつ佈,GNU通用つうよう公共こうきょう许可证あるBSD许可证ようGNU/Linux 以及 FreeBSD,且 WinOF ざい Windows 選擇せんたく BSD许可证。它已だい多數たすう InfiniBand 供應きょうおうしょう採用さいようようGNU/LinuxFreeBSD 以及 Windows

历史

[编辑]

InfiniBandげん于1999ねん两个竞争设计てきごう并:未来みらいI/OあずかしもいちだいI/O。这促成そくせいりょうInfiniBand贸易联盟(InfiniBand Trade Association,缩写IBTA),其中包括ほうかつかんかしわ戴爾めぐみひろしIBMえいとくほろのぼりようとう时有じん认为一些更强大的电脑正在接近PCI总线てき互连びんえいinterconnect bottleneckつきかんゆうぞうPCI-Xてきます级。[11]InfiniBand构规范的1.0版本はんぽん发布于2000ねん最初さいしょ,IBTAてきIBすなおけいだいPCIてきI/O,以太网的つくえぼう计算つくえしゅうぐんてき互连以及ひかり纤通どう。IBTA也设おもえざいIB结构えいFabric computingうえ分担ぶんたんふく务器かたけんずい互聯もう泡沫うたかたてきばく发,业界对投资这样一个意义深远的技术跳跃表现为犹豫不决。[12]

时间线

[编辑]
  • 2001ねんMellanoxえいMellanox售出InfiniBridge 10Gbit/s设备ちょう过10,000个InfiniBandはしこう[13]
  • 2002ねんえいとく宣布せんぷはた着眼ちゃくがん于开发PCI Express而不さいようIBしんへん,以及ほろ停止ていしIB开发以利于扩てん以太网,IB发展受挫,つきかんSun日立ひたち继续支持しじIB。[14]
  • 2003ねんどるよし亚理工学こうがくいん州立しゅうりつ大学だいがく建立こんりゅうりょういち个InfiniBandしゅうぐんざいとう时的TOP500はいめいだいさん
  • 2004ねん:IB开始さく为集ぐん互连さいよう,对抗以太网上てきのべ迟和价格。[12]OpenFabrics AllianceえいOpenFabrics Alliance开发りょう一个标准化的基于LinuxてきInfiniBand软件栈。つぎねん,Linux添加てんかIB支持しじ[15]
  • 2005ねん:IB开始实现为存储设备的互连。[16]
  • 2009ねん世界せかい500きょうちょう级计さんつくえちゅう,259个使用しよう千兆以太网作为内部互连技术,181个使用しようInfiniBand。[17]
  • 2010ねん场领导者MellanoxVoltaireあい并,IBきょう应商ただあましも另一个竞そうしゃ——QLogicえいQLogic,它主ようこう纤通どうきょう应商。[18] Oracle makes a major investment in Mellanox.
  • 2011ねん:FDR交换つくえ适配ざいくに际超级计さんかいえいInternational Supercomputing Conferenceうえ宣布せんぷ[19]
  • 2012ねんえいとく尔收购QLogicてきInfiniBandわざ术。[20]
  • 2016ねんかぶとこつぶん公司こうしせいづくり自己じこてきInfiniBand互连しんへん交换单元。[21]
  • 2019ねんNvidia以69亿美もとおさむMellanoxえいMellanox[22]

まいり

[编辑]

参考さんこう资料

[编辑]
  1. ^ そん副本ふくほん. [2017-01-09]. (原始げんし内容ないようそん档于2017-07-07). 
  2. ^ そん副本ふくほん. [2017-01-09]. (原始げんし内容ないようそん于2020-11-29). 
  3. ^ InfiniBand Cards - Overview. Mellanox. [30 July 2014]. (原始げんし内容ないようそん于2020-01-11). 
  4. ^ Implementing InfiniBand on IBM System p (IBM Redbook SG24-7351-00) (PDF). [2017-01-09]. (原始げんし内容ないようそん (PDF)于2020-11-25). 
  5. ^ Vance, Ashlee. China Wrests Supercomputer Title From U.S.. New York Times. 2010-10-28 [2017-01-09]. (原始げんし内容ないようそん于2021-01-27). 
  6. ^ そん副本ふくほん. [2017-01-09]. (原始げんし内容ないようそん于2016-08-26). 
  7. ^ 7.0 7.1 7.2 そん副本ふくほん. [2017-01-09]. (原始げんし内容ないようそん档于2011-09-29). 
  8. ^ http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf页面そん档备份そん互联网档あん) // Mellanox
  9. ^ Panda, Dhabaleswar K.; Sayantan Sur. Network Speed Acceleration with IB and HSE (PDF). Designing Cloud and Grid Computing Systems with InfiniBand and High-Speed Ethernet. Newport Beach, CA, USA: CCGrid 2011: 23. 2011 [13 September 2014]. (原始げんし内容ないようそん (PDF)于2020-06-13). 
  10. ^ Specification FAQ. ITA. [30 July 2014]. (原始げんし内容ないようそん档于2016-11-24). 
  11. ^ Pentakalos, Odysseas. An Introduction to the InfiniBand Architecture. O'Reilly. [28 July 2014]. (原始げんし内容ないようそん于2014-08-09). 
  12. ^ 12.0 12.1 Kim, Ted. Brief History of InfiniBand: Hype to Pragmatism. Oracle. [28 July 2014]. (原始げんし内容ないようそん档于2014ねん8がつ8にち). 
  13. ^ Timeline. Mellanox Technologies. [28 July 2014]. (原始げんし内容ないようそん于2019-11-29). 
  14. ^ Sun confirms commitment to InfiniBand. The Register. [28 July 2014]. (原始げんし内容ないようそん于2019-06-20). 
  15. ^ Linux Kernel 2.6.11 Supports InfiniBand. [29 July 2014]. (原始げんし内容ないようそん于2020-10-21). 
  16. ^ Is InfiniBand poised for a comeback?, Infostor, [2017-01-09], (原始げんし内容ないようそん于2020-11-25) 
  17. ^ Lawson, Stephen. Two rival supercomputers duke it out for top spot. COMPUTERWORLD. [29 July 2014]. (原始げんし内容ないようそん档于2017-01-10). 
  18. ^ Raffo, Dave. Largest InfiniBand vendors merge; eye converged networks. [29 July 2014]. (原始げんし内容ないようそん档于2017-07-01). 
  19. ^ Mellanox Demos Souped-Up Version of InfiniBand. CIO. 20 June 2011 [1 August 2011]. (原始げんし内容ないようそん于2014-01-07). 
  20. ^ Intel Snaps Up InfiniBand Technology, Product Line from QLogic. HPCwire. January 23, 2012 [2012-01-27]. (原始げんし内容ないようそん档于2012-01-27). 
  21. ^ Oracle Engineers Its Own InfiniBand Interconnects. The Next Platform. [2016-02-24]. (原始げんし内容ないようそん于2020-11-29). 
  22. ^ NVIDIA to Acquire Mellanox for $6.9 Billion. NVIDIA News. 2019-03-11 [2020-02-12]. (原始げんし内容ないようそん于2019-03-11). 

外部がいぶ链接

[编辑]