(Translated by https://www.hiragana.jp/)
OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」 - ITmedia NEWS
ITmedia NEWS > 企業きぎょう業界ぎょうかい動向どうこう >

OpenAIのAI危険きけん対策たいさくチームトップが「限界げんかいたっし」退社たいしゃ 「安全あんぜん確保かくほ後回あとまわしになっている」

» 2024ねん05がつ18にち 0749ふん 公開こうかい
[ITmedia]

 べいOpenAIで人間にんげんよりもはるかにかしこいAI「Superintelligence」(ちょう知能ちのう)の制御せいぎょ目指めざして昨年さくねん結成けっせいされたSuperalignmentチームのトップ、ヤン・ライケは5月17にち現地げんち時間じかん)、退社たいしゃするとXで発表はっぴょうした。


 「わたしがOpenAIに参加さんかしたのは、ここがちょう知能ちのう研究けんきゅうおこなうのに世界せかい最適さいてきだとおもったからだ。だが、OpenAIの幹部かんぶチームと中核ちゅうかくてき優先ゆうせん事項じこうについてずっと同意どういできず、限界げんかいてんたっした」という。

 Superalignmentチームはライケと、共同きょうどう創業そうぎょうしゃでチーフサイエンティストのイリヤ・サツケバーひきいてきた。サツケバーは14にち退社たいしゃ発表はっぴょうしている。

 jan Superalignmentチームについて説明せつめいするヤン・ライケ画像がぞう:Foresight Instituteでの昨年さくねん8がつ講演こうえん動画どうがより)

 ライケは、「ちょう知能ちのう構築こうちく本質ほんしつてき危険きけんみ」であり、「OpenAIは人類じんるい全体ぜんたいおおきな責任せきにんになっている」が、「安全あんぜんせいかがやかしい製品せいひん開発かいはつより後回あとまわしになっている」と警鐘けいしょうらす。

 OpenAIは昨年さくねん2がつ、AGI(Artificial General Intelligence;汎用はんよう人工じんこう知能ちのう)を「一般いっぱんてき人間にんげんよりかしこいAIシステム」として、リスク軽減けいげんさくについて説明せつめいした。Superalignmentチーム結成けっせいはその一環いっかんだった。

 ライケはOpenAIにたいし、「AGIの重要じゅうようさを実感じっかんしてください。AGIにふさわしい厳粛げんしゅく態度たいどのぞんでください」「わたし世界中せかいじゅうも、あなたたちを信頼しんらいしています」というメッセージをのこした。

 ライケのポストの数時間すうじかん、サム・アルトマンCEOは「ライケるのは非常ひじょう残念ざんねんだ。かれとおり、やるべきことはまだたくさんある。数日すうじつちゅうによりながいポストでそれについて説明せつめいする」とポストした。


Copyright © ITmedia, Inc. All Rights Reserved.