全 ぜん 2059文字 もじ
論文 ろんぶん 速報 そくほう サイト「arXiv(アーカイブ)」の投稿 とうこう 論文 ろんぶん から、X(旧 きゅう Twitter)で多 おお く言及 げんきゅう されたAI(人工 じんこう 知能 ちのう )分野 ぶんや の注目 ちゅうもく 論文 ろんぶん を紹介 しょうかい する本 ほん 企画 きかく 。今回 こんかい はAI業界 ぎょうかい の著名 ちょめい 人 じん などが2024年 ねん 5月 がつ にポストした、注目 ちゅうもく すべきarXiv論文 ろんぶん について紹介 しょうかい したい。
arXiv掲載 けいさい のAI論文 ろんぶん を紹介 しょうかい したXの投稿 とうこう で5月 がつ に最 もっと も多 おお く読 よ まれたのは、米 べい OpenAI(オープンAI)がちょうど4年 ねん 前 まえ の2020年 ねん 5月 がつ に投稿 とうこう した論文 ろんぶん 「Language Models are Few-Shot Learners」を紹介 しょうかい したポストである。同 どう 論文 ろんぶん は、ChatGPTの元 もと になった大 だい 規模 きぼ 言語 げんご モデル「GPT-3」をOpenAIが初 はじ めて世 よ に示 しめ したもの。4周年 しゅうねん を記念 きねん して著名 ちょめい なAI研究 けんきゅう 者 しゃ らが相次 あいつ ぎXに投稿 とうこう した。
関連 かんれん 論文 ろんぶん
https://arxiv.org/abs/2005.14165
米 べい Google(グーグル)が2017年 ねん に発表 はっぴょう したTransformerをベースとした大 だい 規模 きぼ 言語 げんご モデルは、パラメーター数 すう を増 ふ やすほど文脈 ぶんみゃく への理解 りかい が深 ふか まり、人間 にんげん がモデルにわずかな学習 がくしゅう 用 よう サンプルを示 しめ す(Few-shot learning)だけで、モデルが多様 たよう なタスクに対応 たいおう できるようになる。本 ほん 論文 ろんぶん は、Transformerを採用 さいよう したGPT-3がこうした能力 のうりょく を備 そな えることを定量 ていりょう 的 てき に示 しめ したものだ。パラメーターの大 だい 規模 きぼ 化 か という、その後 ご の生成 せいせい AIの進化 しんか の方向 ほうこう 性 せい を決定 けってい づけた画期的 かっきてき な論文 ろんぶん である。
ちなみに、この論文 ろんぶん の筆頭 ひっとう 著者 ちょしゃ であるTom Brown(トム・ブラウン)氏 し を始 はじ め、論文 ろんぶん に参加 さんか していたBenjamin Mann(ベンジャミン・マン)氏 し 、Sam McCandlish(サム・マッキャンドリッシュ)氏 し などは、その後 ご OpenAIを離 はな れ、現在 げんざい は米 べい Anthropic(アンソロピック)で活動 かつどう している。
AI分野 ぶんや のインフルエンサーを探 さが す方法 ほうほう
先 さき に紹介 しょうかい したGPT-3論文 ろんぶん のような、時代 じだい の節目 ふしめ となる優 すぐ れたAI論文 ろんぶん を素早 すばや く見 み つけるための有力 ゆうりょく な手法 しゅほう の1つが、目利 めき き力 りょく のあるアカウントをフォローすることだ。
では、AI分野 ぶんや で目利 めき き力 りょく のあるアカウント、いわゆるインフルエンサーはどうやって探 さが すのか。日経 にっけい BPが2024年 ねん 1月 がつ に新設 しんせつ したAI・データラボは、arXivのAI論文 ろんぶん を紹介 しょうかい しているアカウント群 ぐん の分析 ぶんせき を試 こころ みた。
この記事 きじ は有料 ゆうりょう 会員 かいいん 限定 げんてい です。次 つぎ ページでログインまたはお申 もう し込 こ みください。
次 じ ページ 分析 ぶんせき の結果 けっか 見 み えてきたのは?