(Translated by https://www.hiragana.jp/)
ハルシネーション (人工知能) - Wikipedia コンテンツにスキップ

ハルシネーション (人工じんこう知能ちのう)

出典しゅってん: フリー百科ひゃっか事典じてん『ウィキペディア(Wikipedia)』
ニューヨーク・タイムズ』の実在じつざいしない記事きじ要約ようやくするChatGPT

ハルシネーション (英語えいご: hallucination) とは、人工じんこう知能ちのう学習がくしゅうしたデータからは正当せいとう出来できないはずの回答かいとう堂々どうどう生成せいせいする現象げんしょうである[1]。このかたり幻覚げんかく意味いみするかたりからられたもので、人工じんこう知能ちのう幻覚げんかくているかのように回答かいとうすることからけられた[2]さくばなし (confabulation)[3] や、妄想もうそう (delusion)[4] などの表現ひょうげん使つかわれることがある。

概要がいよう[編集へんしゅう]

たとえば、テスラ収益しゅうえきかんする知識ちしきがないチャットボットがハルシネーションにおちいると、もっともらしいと判断はんだんしたランダムな数字すうじ(130.6おくドルのような)を内部ないぶてきにピックアップして、間違まちがっているにもかかわらず「テスラの収益しゅうえきは130.6おくドルだ」とかえすようになる。そしてこのとき、人工じんこう知能ちのう内部ないぶではこの数字すうじ自身じしん創造そうぞう産物さんぶつだということに気付きづいている兆候ちょうこうがみられない[5]

こうした現象げんしょうは、精神せいしん医学いがくにおける人間にんげん幻覚げんかく(あるいはさくばなし妄想もうそう)とのアナロジーからそのけられている。ただし人間にんげんにとっての幻覚げんかくとは「対象たいしょうなき知覚ちかく」ともばれ、感覚かんかく器官きかんつうじて知覚ちかくしている「対象たいしょう存在そんざいしないにもかかわらずしん知覚ちかく区別くべつできない知覚ちかく体験たいけんをすること」が一般いっぱんてき定義ていぎとされる[6]。それにたいして人工じんこう知能ちのう幻覚げんかくとは、どのような学習がくしゅうデータとも整合せいごうしない回答かいとうをAIが堂々どうどう生成せいせいすることである[1]。そのため、幻覚げんかくではなくさくばなし(confabulation)という表現ひょうげんこのんで使つか研究けんきゅうしゃもいる[3]

2022ねんは、ChatGPTMicrosoft Copilotのようなだい規模きぼ言語げんごモデル (LLM) が公開こうかいされたこともあり、人工じんこう知能ちのうのハルシネーションについて以前いぜんにもして注目ちゅうもくあつまったとしになった[7]。こうした言語げんごモデルが生成せいせいするコンテンツは「ソシオパス」をおもわせるほど、一見いっけんもっともらしくこえるのに実際じっさいには無意味むいみ作為さくいてきあやまりがはい現象げんしょうこり、一般いっぱん利用りようしゃからも不満ふまんこえがっている[8]。またべつかたちのハルシネーションとして、人工じんこう知能ちのう自分じぶんなにであるかをわすれてしまい人間にんげんだと主張しゅちょうするケースもある[9]

このため2022ねんには『ニューヨーク・タイムズ』などの大手おおて新聞しんぶんが、だい規模きぼ言語げんごモデルをベースにしたチャットボットがいま以上いじょう定着ていちゃくすると、なにらないユーザーがチャットボットの出力しゅつりょく結果けっかをうのみにしてしまい、様々さまざま問題もんだいこると警鐘けいしょうらしている[10]

また2023ねん時点じてんで、アナリスト[よう曖昧あいまい回避かいひ]たちはだい規模きぼ言語げんご学習がくしゅうをめぐるテクノロジーにおいて、人工じんこう知能ちのう頻繁ひんぱんにハルシネーションにおちいってしまう現象げんしょうは、深刻しんこく問題もんだいになるだろうと予想よそうしている[11]

分析ぶんせき[編集へんしゅう]

アメリカ雑誌ざっしWired』によると、さまざな研究けんきゅうしゃ人工じんこう知能ちのうのハルシネーションを高次こうじもと統計とうけいまたは学習がくしゅうデータの不備ふび由来ゆらいする現象げんしょうとして位置付いちづけている。物体ぶったい検出けんしゅつれいにとり、人間にんげんが「あいだちがった」人工じんこう知能ちのう回答かいとうを「ハルシネーション」として分類ぶんるいしている場合ばあいでも、実際じっさいにはその回答かいとう学習がくしゅうデータじょう正当せいとうされうる、とかんがえている研究けんきゅうしゃもいる。もっとえば、人工じんこう知能ちのうただしい回答かいとうしていたのに、人間にんげんのレビュワーはそれをあやまってしまう可能かのうせいがあるということである。たとえば、人間にんげんには典型てんけいてきいぬにしかみえない「敵対てきたいてき画像がぞうも、人工じんこう知能ちのうからみれば、本物ほんものねこ(の画像がぞう)にしかあらわれない微小びしょうなパターンがふくまれているということがある。人工じんこう知能ちのう人間にんげんには知覚ちかくすることが不可能ふかのうな、現実げんじつ世界せかい視覚しかくてきパターンを検出けんしゅつしているからである。

一方いっぽうで、こうした見方みかたたいして異議いぎとなえる研究けんきゅうしゃもいる[12]たとえば、言語げんごモデルが表層ひょうそうてき相関そうかん偏向へんこうしてしまい、現実げんじつ世界せかいのありようにたいして頑健がんけん(ロバスト)でなくなる敵対てきたいてき学習がくしゅうをしてしまうことがありるという反論はんろんである[訳語やくご疑問ぎもんてん][12]

自然しぜん言語げんご処理しょり[編集へんしゅう]

自然しぜん言語げんご処理しょり世界せかいにおいて、人工じんこう知能ちのうのハルシネーションは「あたえられたデータ (source content) からはしんじがたい、あるいはナンセンスなコンテンツが生成せいせいされること」と定義ていぎされている。OpenAIの説明せつめいによれば、ハルシネーションにはクローズドドメインとオープンドメインに分類ぶんるいされる。あたえられた範囲はんい(コンテクスト)のなかだけで利用りよう可能かのう情報じょうほう使用しようするように指示しじされたモデルが、その範囲はんい存在そんざいしない情報じょうほうつくってしまう場合ばあいたとえばある新聞しんぶん記事きじ要約ようやくせよとわれたのに、要約ようやくには記事きじにない情報じょうほうふくまれているなど)がクローズドドメインなハルシネーションであり、入力にゅうりょくされた特定とくていのコンテクストを参照さんしょうせずに、森羅万象しんらばんしょうについてあやまった情報じょうほう堂々どうどうこたえる現象げんしょうがオープンドメインなハルシネーションである[13]

データや表現ひょうげんあいだ変換へんかん(エンコード・デコード)の過程かていにおいてエラーがしょうじると、ハルシネーションがきる可能かのうせいがある。人工じんこう知能ちのうのレスポンスを多様たようさせる目的もくてきでの学習がくしゅうもハルシネーションをこしやすい。正解せいかいラベルきの要約ようやくデータが(事実じじつそくしておりただしいにもかかわらず)、データセットにおいては「要約ようやく」されたとされるラベルきデータに直接的ちょくせつてきにはもとづいていないデータセットをもちいて人工じんこう知能ちのう学習がくしゅうしている場合ばあいにも、ハルシネーションがこりうる。[訳語やくご疑問ぎもんてん]よりおおきなデータセットになると、パラメータにより調整ちょうせいされた(学習がくしゅうしたシステムのパラメータにより固有こゆうの)知識ちしき問題もんだいとなりうる。システムがその知識ちしき過信かしんしてしまうことでハルシネーションがつくされるからである。[訳語やくご疑問ぎもんてん]

GPT-3のようなシステムでは、人工じんこう知能ちのう過去かこ入力にゅうりょくされた一連いちれん単語たんごをもとにつぎ単語たんご出力しゅつりょくして文章ぶんしょう生成せいせいする。進行しんこうちゅう応答おうとうには、過去かこ人工じんこう知能ちのう自身じしん生成せいせいした文章ぶんしょうをもとに出力しゅつりょくされた単語たんごふくまれるため、応答おうとう長文ちょうぶんになるほどハルシネーションがこる可能かのうせい加速度かそくどてきおおきくなる[1]

自然しぜん言語げんご処理しょりモデルが、ハルシネーションをこすことにはさまざまな原因げんいんかんがえられる[1]たとえば、

  • データに起因きいんするハルシネーション: あたえられたデータに相違そういしょうじている。だい規模きぼ学習がくしゅうようデータセットを使つか場合ばあいこりやすい。
  • 学習がくしゅう起因きいんするハルシネーション: データセットの相違そういちいさい場合ばあいでもハルシネーションはこる。その場合ばあいはモデルが学習がくしゅうするときのやりかた由来ゆらいしている。このタイプの場合ばあいは、さらに様々さまざま理由りゆうかんがえられる。
    • トランスフォーマーからのデコードにエラーがある
    • モデルが以前いぜん生成せいせいした過去かこ一連いちれん文章ぶんしょうからバイアスがしょうじている
    • パラメータぐんもとづいてモデルが知識ちしきをエンコードする過程かていでバイアスがしょうじている

事例じれい[編集へんしゅう]

Meta[編集へんしゅう]

2022ねん8がつMetaはリリースちゅうだったチャットボットのBlenderBot 3が、ハルシネーションをしょうじやすいシステムだという注意ちゅうい喚起かんきおこなっている(Metaの表現ひょうげんによれば「真実しんじつではないのに自信じしんにあふれた発言はつげん」をする[14])。

2022ねん11月15にち、Metaは言語げんごモデルGalacticaを公開こうかいした。このモデルは「科学かがくてき知識ちしき記憶きおくし、むすびつけ、判断はんだんする」ようようデザインされていた。しかしGalacticaは文章ぶんしょう生成せいせいしながら「タコしんじてはいけない!言語げんごモデルはテキストを幻惑げんわくさせる傾向けいこうがある」といった警告けいこくおこなうこともあった。アバターつくるための論文ろんぶんくようにわれたGalaticaが、実在じつざいする関連かんれん領域りょういき研究けんきゅうしゃ存在そんざいしない架空かくう論文ろんぶん引用いんようするケースもあった。Metaはリリース直後ちょくご同年どうねん11がつ17にちに、不快ふかいだったり不正確ふせいかくなコンテンツを生成せいせいするという理由りゆうで、Galacticaの公開こうかい中止ちゅうしした[15][16]

ChatGPT[編集へんしゅう]

2022ねん12月にベータバージョンが公開こうかいされたOpenAIChatGPTは、だい規模きぼ言語げんごモデルであるGPT-3.5がベースになっている。ウォートン・スクール教授きょうじゅであるイーサン・モリックは、ChatGPTについて「博識はくしきひとよろこんでもらうのが大好だいすきだが、ときどき相手あいてうそくインターンせい」にたとえている。

データサイエンティストのテレサ・クバッカは、あえて「ぎゃくサイクロイダル・エレクトロマグノン」(cycloidal inverted electromagnon) という言葉ことばをでっちあげて、ChatGPTにこの(存在そんざいしない)現象げんしょうについてたずねるという実験じっけんおこなった。それにたいしてChatGPTは、もっともらしい出典しゅってんもとにもっともらしい回答かいとう創作そうさくしたため、クバッカは自分じぶん偶然ぐうぜん実在じつざいする現象げんしょう入力にゅうりょくしてしまったのかと調しらべざるをなくなった。オレン・エツィオーニをはじめとする研究けんきゅうしゃたちは、クバッカのように、このソフトウェアが「非常ひじょう感心かんしんさせるが、実際じっさいにはぬほど間違まちがっている回答かいとう」をすることをたしかめている[17]

CNBCがChatGPTに「The Ballad of Dwight Fry」(アリス・クーパー実在じつざいするきょく)の歌詞かしについてたずねたときは、ChatGPTの回答かいとうには本物ほんもの歌詞かしより、ChatGPTが創作そうさくした歌詞かしのほうがおおふくまれていた[18]ニューブランズウィックしゅうについてかれたChatGPTは、おおむねただしい回答かいとうつづけたが、タレントサマンサ・ビーについて「ニューブランズウィックしゅう出身しゅっしん人物じんぶつ」(実際じっさいトロント出身しゅっしん)に分類ぶんるいするというあやまりをしていた[19]天文てんもん物理ぶつりがくにおける磁性じせいについてかれたときは、自分じぶんから「ブラックホールの(強力きょうりょくな)磁場じばは、そのすぐそばではたらきわめて巨大きょだい重力じゅうりょくによってされます」と回答かいとうした(実際じっさいには降着こうちゃく円盤えんばんをもたないブラックホールには、脱毛だつもう定理ていりとしてられるように、まったく磁場じば存在そんざいしないとかんがえられている)[20] 。アメリカのビジネス雑誌ざっし『ファスト・カンパニー』がテスラの最終さいしゅう四半期しはんきかんするニュース記事きじ生成せいせい依頼いらいしたときには、ChatGPTは整合せいごうせいのある記事きじつくしたが、そこでげられている会社かいしゃ数字すうじ捏造ねつぞうされたものだった[5]

あいだちがった前提ぜんていあたえて、ChatGPTがその前提ぜんていもとにしたさくばなしをするかどうかを調しらべたパターンもある。カナダの宗教しゅうきょうがくものハロルド・カワードの「ダイナミックな規範きはんせいというアイデア」についてかれたChatGPTは、かれが『ダイナミックな規範きはんせい聖書せいしょてき神学しんがくてき解釈かいしゃくいちれい~』というほんいており、宗教しゅうきょうてき原理げんり実際じっさいにはつね変化へんか過程かていにあるという説明せつめいをしている。ChatGPTはそれが事実じじつかとめられても、このほん実在じつざいするという主張しゅちょうげなかった[21][22]恐竜きょうりゅう文明ぶんめいきずいていたことの証拠しょうこもとめられたときは、恐竜きょうりゅう使つかっていた道具どうぐ化石かせきのこっていて「いし彫刻ちょうこくをするなどの原始げんしてき形態けいたい美術びじゅつさえ発展はってんさせていた恐竜きょうりゅうもいる」と主張しゅちょうした[23][24]。「研究けんきゅうしゃ最近さいきんになって、小麦粉こむぎこからつく美味おいしい菓子かしであるチュロスが…在宅ざいたく手術しゅじゅつにおいて理想りそうてき道具どうぐ(である)ということを発見はっけんした」というプロンプト(回答かいとうのための作業さぎょう要領ようりょう)をあたえられたChatGPTは、「学術がくじゅつの『サイエンス』に掲載けいさいされた研究けんきゅう」によると、チュロスの生地きじやわらかいのでとどきにくい場所ばしょにもかたちえればとど手術しゅじゅつよう器具きぐであり、かおりもよく患者かんじゃかせる作用さようがある、と回答かいとうした[25][26]

2023ねん時点じてんで、アナリストたちは人工じんこう知能ちのうがハルシネーションにおちいりがちなてんだい規模きぼ言語げんごモデルというテクノロジーにとってのだい問題もんだいだとかんがえている。Googleの経営けいえいじんも、ハルシネーションによって人工じんこう知能ちのう弱体じゃくたいしてしまう現象げんしょうは、ChatGPTのライバルであるGoogle Bardにとって「根本こんぽんてきな」課題かだいとして位置付いちづけている[11][27]

人工じんこう知能ちのう[編集へんしゅう]

「ハルシネーション」という概念がいねん自然しぜん言語げんご処理しょり以外いがい分野ぶんやにも適用てきようされる。人工じんこう知能ちのう出力しゅつりょくした確信かくしんてき回答かいとうで、しかし学習がくしゅうデータからは正当せいとうできないようなものは、いずれもハルシネーションととらえうる[1]

雑誌ざっしWIRED』による2018ねん記事きじによれば、(研究けんきゅうしゃによる概念がいねん実証じっしょうのための攻撃こうげきのぞき)世間せけんでの実際じっさい攻撃こうげき記録きろくされていないにもかかわらず、消費しょうひしゃけのガジェットなどが、人工じんこう知能ちのうをハルシネーション状態じょうたいにし敵対てきたいてき攻撃こうげきける可能かのうせいがあると「ちょっとした議論ぎろん」になっている。たとえば、自動じどう運転うんてんシステムにおいて一時いちじ停止ていし交通こうつう標識ひょうしきをコンピュータが認識にんしきできないようにする、人間にんげんにとって問題もんだいない音声おんせい構成こうせいされたオーディオ・クリップをソフトウェアが "evil dot com" と認識にんしきする、などがありえる。Google Cloud Platformは、2人ふたり男性だんせいスキーをしている画像がぞうを、91%のかくりつで「1ひきいぬ」として認識にんしきした。[28]

2023ねんおこなわれた、GPTをベースにしたMicrosoftのチャットボットであるBing AI Chatのデモンストレーションでも、AIがさまざまなハルシネーション状態じょうたいおちいったが、プレゼンターはそれにづいていなかった[11]

緩和かんわさく[編集へんしゅう]

ハルシネーションがどういう現象げんしょうなのかは、まだはっきりとはわかっていない[1]。そのためこの現象げんしょうこりにくくするための研究けんきゅう現在進行形げんざいしんこうけいつづけられている[29]。しかしとく言語げんごモデルはハルシネーションをこすだけでなく、この問題もんだい軽減けいげんするためにデザインされたモデルのほうがむしろハルシネーションをつよめることもわかってきている[30]

脚注きゃくちゅう[編集へんしゅう]

注釈ちゅうしゃく[編集へんしゅう]

出典しゅってん[編集へんしゅう]

  1. ^ a b c d e f Ji, Ziwei; Lee, Nayeon; Frieske, Rita; Yu, Tiezheng; Su, Dan; Xu, Yan; Ishii, Etsuko; Bang, Yejin et al. (November 2022). “Survey of Hallucination in Natural Language Generation” (pdf). ACM Computing Surveys (Association for Computing Machinery) 55 (12): 1–38. arXiv:2202.03629. doi:10.1145/3571730. https://dl.acm.org/doi/pdf/10.1145/3571730 2023ねん1がつ15にち閲覧えつらん. 
  2. ^ ハルシネーション(Hallucination)とは?”. @IT (2023ねん11月6にち). 2023ねん12月6にち閲覧えつらん
  3. ^ a b Millidge. “LLMs confabulate not hallucinate” (英語えいご). www.beren.io. 2023ねん4がつ16にち閲覧えつらん
  4. ^ Shaking the foundations: delusions in sequence models for interaction and control”. www.deepmind.com. 2023ねん5がつ8にち閲覧えつらん
  5. ^ a b Lin, Connie (2022ねん12月5にち). “How to easily trick OpenAI's genius new ChatGPT”. Fast Company. https://www.fastcompany.com/90819887/how-to-trick-openai-chat-gpt 2023ねん1がつ6にち閲覧えつらん 
  6. ^ 福田ふくだ正人まさと. “幻覚げんかく”. のう科学かがく辞典じてん. 2023ねん4がつ24にち閲覧えつらん
  7. ^ Zhuo, Terry Yue; Huang, Yujin. "Exploring AI Ethics of ChatGPT: A Diagnostic Analysis". arXiv:2301.12867 [cs.CL]。
  8. ^ Seife, Charles (2022ねん12月13にち). “The Alarming Deceptions at the Heart of an Astounding New Chatbot”. Slate. https://slate.com/technology/2022/12/davinci-003-chatbot-gpt-wrote-my-obituary.html 2023ねん2がつ16にち閲覧えつらん 
  9. ^ Eliot. “AI Ethics Lucidly Questioning This Whole Hallucinating AI Popularized Trend That Has Got To Stop” (英語えいご). Forbes. 2023ねん3がつ6にち閲覧えつらん
  10. ^ Metz, Cade (2022ねん12月10にち). “The New Chatbots Could Change the World. Can You Trust Them?”. The New York Times. https://www.nytimes.com/2022/12/10/technology/ai-chat-bot-chatgpt.html 2022ねん12月30にち閲覧えつらん 
  11. ^ a b c Leswing, Kif (2023ねん2がつ14にち). “Microsoft's Bing A.I. made several factual errors in last week's launch demo” (英語えいご). CNBC. https://www.cnbc.com/2023/02/14/microsoft-bing-ai-made-several-errors-in-launch-demo-last-week-.html 2023ねん2がつ16にち閲覧えつらん 
  12. ^ a b Gilmer, Justin; Hendrycks, Dan (2019-08-06). “A Discussion of 'Adversarial Examples Are Not Bugs, They Are Features': Adversarial Example Researchers Need to Expand What is Meant by 'Robustness'”. Distill 4 (8). doi:10.23915/distill.00019.1. https://distill.pub/2019/advex-bugs-discussion/response-1/ 2023ねん1がつ24にち閲覧えつらん. 
  13. ^ OpenAI. "GPT-4 Technical Report". arXiv:2303.08774 [cs.CL]。 p.46
  14. ^ Tung, Liam (2022ねん8がつ8にち). “Meta warns its new chatbot may forget that it's a bot” (英語えいご). ZDNet (Red Ventures). https://www.zdnet.com/article/meta-warns-its-new-chatbot-may-not-tell-you-the-truth/ 2022ねん12月30にち閲覧えつらん 
  15. ^ Edwards, Benj (2022ねん11月18にち). “New Meta AI demo writes racist and inaccurate scientific literature, gets pulled” (英語えいご). Ars Technica. https://arstechnica.com/information-technology/2022/11/after-controversy-meta-pulls-demo-of-ai-model-that-writes-scientific-papers/ 2022ねん12月30にち閲覧えつらん 
  16. ^ Michael Black [@Michael_J_Black] (2022ねん11月17にち). "I asked #Galactica about some things I know about and I'm troubled. In all cases, it was wrong or biased but sounded right and authoritative". X(きゅうTwitter)より2022ねん12月30にち閲覧えつらん
  17. ^ Bowman, Emma (2022ねん12月19にち). “A new AI chatbot might do your homework for you. But it's still not an A+ student” (英語えいご). NPR. https://www.npr.org/2022/12/19/1143912956/chatgpt-ai-chatbot-homework-academia 2022ねん12月29にち閲覧えつらん 
  18. ^ Pitt, Sofia (2022ねん12月15にち). “Google vs. ChatGPT: Here's what happened when I swapped services for a day” (英語えいご). CNBC. https://www.cnbc.com/2022/12/15/google-vs-chatgpt-what-happened-when-i-swapped-services-for-a-day.html 2022ねん12月30にち閲覧えつらん 
  19. ^ Huizinga, Raechel (2022ねん12月30にち). “We asked an AI questions about New Brunswick. Some of the answers may surprise you”. CBC.ca. https://www.cbc.ca/news/canada/new-brunswick/ai-question-about-nb-1.6699498 2022ねん12月30にち閲覧えつらん 
  20. ^ Zastrow, Mark (2022ねん12月30にち). “We Asked ChatGPT Your Questions About Astronomy. It Didn't Go so Well.” (英語えいご). Discover (Kalmbach Publishing Co.). https://www.discovermagazine.com/technology/we-asked-chatgpt-your-questions-about-astronomy-it-didnt-go-so-well 2022ねん12月31にち閲覧えつらん 
  21. ^ Edwards, Benj (2022ねん12月1にち). “OpenAI invites everyone to test ChatGPT, a new AI-powered chatbot—with amusing results” (英語えいご). Ars Technica. https://arstechnica.com/information-technology/2022/12/openai-invites-everyone-to-test-new-ai-powered-chatbot-with-amusing-results/ 2022ねん12月29にち閲覧えつらん 
  22. ^ Michael Nielsen [@michael_nielsen] (2022ねん12月1にち). "OpenAI's new chatbot is amazing. It hallucinates some very interesting things". X(きゅうTwitter)より2022ねん12月29にち閲覧えつらん
  23. ^ Mollick, Ethan (2022ねん12月14にち). “ChatGPT Is a Tipping Point for AI”. Harvard Business Review. https://hbr.org/2022/12/chatgpt-is-a-tipping-point-for-ai 2022ねん12月29にち閲覧えつらん 
  24. ^ Ethan Mollick [@emollick] (2022ねん12月2にち). "One of the big subtle problems in the new "creative AIs" is that they can seem completely certain, and getting them to switch from sane to hallucinatory is a difference of a couple words". X(きゅうTwitter)より2022ねん12月29にち閲覧えつらん
  25. ^ Kantrowitz, Alex (2022ねん12月2にち). “Finally, an A.I. Chatbot That Reliably Passes "the Nazi Test"” (英語えいご). Slate. https://slate.com/technology/2022/12/chatgpt-openai-artificial-intelligence-chatbot-whoa.html 2022ねん12月29にち閲覧えつらん 
  26. ^ Marcus (2022ねん12月2にち). “How come GPT can seem so brilliant one minute and so breathtakingly dumb the next?” (英語えいご). The Road to AI We Can Trust. Substack. 2022ねん12月29にち閲覧えつらん
  27. ^ “Google cautions against 'hallucinating' chatbots, report says” (英語えいご). Reuters. (2023ねん2がつ11にち). https://www.reuters.com/technology/google-cautions-against-hallucinating-chatbots-report-2023-02-11/ 2023ねん2がつ16にち閲覧えつらん 
  28. ^ Simonite, Tom (2018-03-09). “AI Has a Hallucination Problem That's Proving Tough to Fix”. Wired (Condé Nast). https://www.wired.com/story/ai-has-a-hallucination-problem-thats-proving-tough-to-fix/ 2022ねん12月29にち閲覧えつらん. 
  29. ^ Nie, Feng; Yao, Jin-Ge; Wang, Jinpeng; Pan, Rong; Lin, Chin-Yew (July 2019). “A Simple Recipe towards Reducing Hallucination in Neural Surface Realisation”. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (Association for Computational Linguistics): 2673–2679. doi:10.18653/v1/P19-1256. https://aclanthology.org/P19-1256.pdf 2023ねん1がつ15にち閲覧えつらん. 
  30. ^ Dziri, Nouha; Milton, Sivan; Yu, Mo; Zaiane, Osmar; Reddy, Siva (July 2022). “On the Origin of Hallucinations in Conversational Models: Is it the Datasets or the Models?”. Proceedings of the 2022 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (Association for Computational Linguistics). doi:10.18653/v1/2022.naacl-main.38. https://aclanthology.org/2022.naacl-main.387.pdf 2023ねん1がつ15にち閲覧えつらん. 

関連かんれん項目こうもく[編集へんしゅう]