ディープドリーム

出典しゅってん: フリー百科ひゃっか事典じてん『ウィキペディア(Wikipedia)』
DeepDreamから転送てんそう
もと画像がぞう
ディープドリームの適用てきよう、10かいかえ
ディープドリームの適用てきよう、50かいかえ

ディープドリーム英語えいご: DeepDream)は、 GoogleのエンジニアであるAlexander Mordvintsevによって作成さくせいされたコンピュータービジョンプログラムである。このソフトウェアは、たたみニューラルネットワーク使用しようし、アルゴリズムパレイドリアかいして画像がぞうなかにパターンを検出けんしゅつおよび強化きょうかし、意図いとてき過剰かじょう処理しょりすることで、ゆめのような幻覚げんかくてき画像がぞう生成せいせいする[1][2][3]

このGoogleのプログラムは、「ふか夢見ゆめみる(deep dreaming)」という用語ようご普及ふきゅうさせ、訓練くんれんされたディープネットワークによりのぞみの活性かっせい処理しょりほどこし、画像がぞう生成せいせいすることをすようになった。この用語ようごは、いまや、関連かんれんした画像がぞう生成せいせい手法しゅほうのプログラムをすまでになっている。

歴史れきし[編集へんしゅう]

ディープドリームは、『インセプション』という映画えいが同名どうめいのコードネームがつけられた[1][2][3]深化しんかたたみネットワーク端緒たんしょとし、2014ねんImageNet Large-Scale Visual Recognition Challenge(ILSVRC)のために開発かいはつされ、2015ねん7がつにリリースされた。

Googleのディープドリームプログラムのおかげで、2015ねんに「ゆめる」というアイデアと名前なまえが、インターネットで人気にんきはくした。このアイデアはニューラルネットワークの歴史れきし初期しょきからあり[4]同様どうよう方法ほうほう視覚しかくてきテクスチャの合成ごうせい使用しようされている[5]関連かんれんする視覚しかくのアイデアは、Googleの研究けんきゅうまえに、いくつかの研究けんきゅうグループによって開発かいはつされた[6][7]

Googleが技術ぎじゅつ公開こうかいし、プログラムコードをオープンソース[8]したのち、ユーザーが自分じぶん写真しゃしん変換へんかんできるように、Webサービス、モバイルアプリケーション、デスクトップソフトウェアといったおおくのツールが市場いちば登場とうじょうした。

プロセス[編集へんしゅう]

ディープドリームは、画像がぞう自動的じどうてき分類ぶんるいする目的もくてきで、画像がぞうないかおやそののパターンを検出けんしゅつするように設計せっけいされている[9]。ただし、学習がくしゅう、ネットワークをぎゃく方向ほうこう実行じっこうして、もと画像がぞうをわずかに調整ちょうせいして、特定とくてい出力しゅつりょくニューロン(たとえば、かお特定とくてい動物どうぶつ)の信頼しんらいせいスコアがたかくなるように仕向しむけることもできる。これは、ニューラルネットワークの出現しゅつげん構造こうぞうをよく理解りかいするための視覚しかく使用しようでき、ディープドリームの基礎きそ概念がいねんとなっている。ただし、十分じゅうぶん反復はんぷくおこなったのちには、最初さいしょてて特徴とくちょうがない画像がぞうでさえ、 パレイドリア形成けいせい十分じゅうぶん調整ちょうせいされることで、サイケデリックでシュール画像がぞうがアルゴリズムにより生成せいせいされる。最適さいてきバックプロパゲーションているが、ネットワークのおもみを調整ちょうせいするわりに、おもみは固定こていして入力にゅうりょく調整ちょうせいされる。

たとえば、既存きそん画像がぞう変更へんこうして、「ねこのように」えるようにすることができる。また、結果けっかとしてられる強化きょうかされた画像がぞうふたた処理しょり手続てつづきに入力にゅうりょくできる[2]。この方法ほうほうは、くもなか動物どうぶつのパターンをさが活動かつどうている。

入力にゅうりょく画像がぞうかくピクセル個別こべつ勾配こうばい降下こうか適用てきようすると、隣接りんせつするピクセルに関係かんけいせいがほとんどない画像がぞう生成せいせいされるため、画像がぞう過剰かじょうたか周波数しゅうはすう情報じょうほうしめす。生成せいせい画像がぞうは、ぜん処理しょりまたは正則せいそく処理しょりにより大幅おおはば改善かいぜんされる。その処理しょりとは、自然しぜん画像がぞう統計とうけい特定とくてい画像がぞう優先ゆうせんしない)または単純たんじゅん平滑へいかつ入力にゅうりょく優先ゆうせんするものである[7][10][11]たとえば、マヘンドランらは、画像がぞう区分くぶんてき定値ていちするぜん変化へんか正則せいそく使用しようした。いろいろな正則せいそく技術ぎじゅつくわしく討議とうぎされている。特徴とくちょう視覚しかく正則せいそく技術ぎじゅつ深層しんそうてきかつ視覚しかくてき研究けんきゅう2017ねん発表はっぴょうされている[12]

ディープドリームで処理しょりされた画像がぞうは、LSDおよびサイロシビン誘発ゆうはつする幻覚げんかくており、人工じんこう神経しんけい回路かいろもう視覚しかく特定とくてい部位ぶいとのあいだ機能きのうとの類似るいじせい暗示あんじしている[13]

使用しようほう[編集へんしゅう]

プールの3にん男性だんせい写真しゃしんたいし、ディープドリーム処理しょり後期こうき段階だんかい)したれい

ゆめる」アイデアは、出力しゅつりょくないニューロン以外いがいかくされた(内部ないぶ)ニューロンに適用てきようできる。これにより、ネットワークのさまざまな部分ぶぶん役割やくわり表現ひょうげん調査ちょうさできる[11]。また、単一たんいつのニューロン(この使用しようほうはアクティビティ最大さいだいばれることもある)[14]またはニューロンのそう全体ぜんたいたすように入力にゅうりょく最適さいてきすることもできる。

ゆめはネットワークの視覚しかくコンピューターアート作成さくせいもっともよく使用しようされるが、訓練くんれんのメニューに「睡眠すいみんゆめ」の入力にゅうりょく追加ついかすると、コンピューターサイエンスの抽象ちゅうしょう訓練くんれん時間じかん改善かいぜんされることが最近さいきん報告ほうこくされている[15]

ディープドリームモデルは、美術びじゅつ分野ぶんやにも応用おうようできることが実証じっしょうされている[16]

ディープドリームは、Foster the Peopleの『Doing It for the Money英語えいごばん』のミュージックビデオ使用しようされた[17]

最近さいきんサセックス大学だいがく研究けんきゅうグループが幻覚げんかく機械きかい作成さくせいし、ディープドリームアルゴリズムを事前じぜん記録きろくされたパノラマビデオに適用てきようして、ユーザーが仮想かそう現実げんじつ環境かんきょう探索たんさくして精神せいしん活性かっせい物質ぶっしつ精神病せいしんびょう理学りがくてき状態じょうたい体験たいけん模倣もほうできるようにした[18]かれらは、幻覚げんかく機械きかいによって誘発ゆうはつされる主観しゅかんてき体験たいけんが、サイケデリック状態じょうたいサイロシビン投与とうよ)と現象げんしょうがくてき類似るいじしている一方いっぽうで、比較ひかく対象たいしょうのビデオ(「ハルシノゲン」)とはいちじるしくことなることを実証じっしょうすることができた。

出典しゅってん[編集へんしゅう]

  1. ^ a b Mordvintsev (2015ねん). “DeepDream - a code example for visualizing Neural Networks”. Google Research. 2015ねん7がつ8にち時点じてんオリジナルよりアーカイブ。2020ねん2がつ29にち閲覧えつらん
  2. ^ a b c Mordvintsev (2015ねん). “Inceptionism: Going Deeper into Neural Networks”. Google Research. 2015ねん7がつ3にち時点じてんオリジナルよりアーカイブ。2020ねん2がつ29にち閲覧えつらん
  3. ^ a b Szegedy, Christian; Liu, Wei; Jia, Yangqing; Sermanet, Pierre; Reed, Scott; Anguelov, Dragomir; Erhan, Dumitru; Vanhoucke, Vincent et al. (2014). “Going Deeper with Convolutions”. Computing Research Repository. arXiv:1409.4842. Bibcode2014arXiv1409.4842S. 
  4. ^ Lewis, J.P. (1988). Creation by refinement: a creativity paradigm for gradient descent learning networks. IEEE International Conference on Neural Networks. doi:10.1109/ICNN.1988.23933
  5. ^ Portilla, J; Simoncelli, Eero (2000). “A parametric texture model based on joint statistics of complex wavelet coefficients”. International Journal of Computer Vision 40: 49–70. doi:10.1023/A:1026553619983. 
  6. ^ Erhan, Dumitru. (2009). Visualizing Higher-Layer Features of a Deep Network (PDF). International Conference on Machine Learning Workshop on Learning Feature Hierarchies.
  7. ^ a b Simonyan, Karen; Vedaldi, Andrea; Zisserman, Andrew (2014). Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps. International Conference on Learning Representations Workshop.
  8. ^ deepdream - GitHub
  9. ^ Rich McCormick (2015ねん7がつ7にち). “Fear and Loathing in Las Vegas is terrifying through the eyes of a computer”. The Verge. 2015ねん7がつ25にち閲覧えつらん
  10. ^ Mahendran, Aravindh; Vedaldi, Andrea (2015). Understanding Deep Image Representations by Inverting Them. IEEE Conference on Computer Vision and Pattern Recognition. doi:10.1109/CVPR.2015.7299155
  11. ^ a b Yosinski, Jason; Clune, Jeff; Nguyen, Anh; Fuchs, Thomas (2015). Understanding Neural Networks Through Deep Visualization. Deep Learning Workshop, International Conference on Machine Learning (ICML) Deep Learning Workshop.
  12. ^ Olah, Chris; Mordvintsev, Alexander; Schubert, Ludwig (2017-11-07). “Feature Visualization” (英語えいご). Distill 2 (11). arXiv:1409.4842. doi:10.23915/distill.00007. ISSN 2476-0757. 
  13. ^ LaFrance (2015ねん9がつ3にち). “When Robots Hallucinate”. The Atlantic. 2015ねん9がつ24にち閲覧えつらん
  14. ^ Nguyen, Anh; Dosovitskiy, Alexey; Yosinski, Jason; Brox, Thomas (2016). Synthesizing the preferred inputs for neurons in neural networks via deep generator networks. arxiv. Bibcode:2016arXiv160509304N
  15. ^ Arora, Sanjeev; Liang, Yingyu; Tengyu, Ma (2016). Why are deep nets reversible: A simple theory, with implications for training. arxiv. Bibcode:2015arXiv151105653A
  16. ^ Spratt, Emily L. (2017). “Dream Formulations and Deep Neural Networks: Humanistic Themes in the Iconology of the Machine-Learned Image”. Kunsttexte (Humboldt-Universität zu Berlin) 4. arXiv:1802.01274. Bibcode2018arXiv180201274S. https://edoc.hu-berlin.de/bitstream/handle/18452/19403/Spratt%20-%20final.pdf. 
  17. ^ fosterthepeopleVEVO (2017-08-11), Foster The People - Doing It for the Money, https://www.youtube.com/watch?v=dJ1VorN9Cl0 2017ねん8がつ15にち閲覧えつらん 
  18. ^ Suzuki, Keisuke (22 November 2017). “A Deep-Dream Virtual Reality Platform for Studying Altered Perceptual Phenomenology”. Sci Rep 7 (1): 15982. Bibcode2017NatSR...715982S. doi:10.1038/s41598-017-16316-2. PMC 5700081. PMID 29167538. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5700081/. 

関連かんれん項目こうもく[編集へんしゅう]

外部がいぶリンク[編集へんしゅう]