SAI-Lab Blog

「ヒトとAIの共生」がミッションの企業、SAI-Lab株式会社のブログです。

バックプロパゲーション以外の、ニューラルネットワークの学習方法

ニューラルネットワークに学習させるための手法として、もっとも代表的なものは誤差逆伝播法(バックプロパゲーション)です。

しかしながら、バックプロパゲーションは動物の神経系とはかけはなれています。

また、時系列データを扱う際は、時間を遡ってパラメータを修正する必要があるため、以前の時刻のデータを保持する必要がある、という問題点もあります。

以下に、これまでに提唱されているバックプロパゲーションに代わるアルゴリズムをいくつかリストアップします。

 

Feedback Alignment

T. Lillicrap et al.,“Random synaptic feedback weights support error backpropagation for deep learning”, Nature Communication 7, 2016.

www.nature.com

 

Direct Feedback Alignment

A. Nokland et al.,“Direct Feedback Alignment Provides Learning in Deep Neural Networks”

arxiv.org

 

Synthetic Gradient

M. Jaderberg et al.,“Decoupled Neural Interfaces using Synthetic Gradients”

arxiv.org

 

Target Prop

Y. Bengio,“How Auto-Encoders Could Provide Credit Assignment in Deep Networks via Target Propagation”

arxiv.org

 

Difference Target Prop

D. Lee et al.,“Difference Target Propagation”

arxiv.org

 

この中でも、特にDirect Feedback Alignmentは誤差から直接各層のパラメータを修正するため、小脳のモデルとしても有望に思えます。

バックプロパゲーションが高機能すぎるため現在の人工知能の主流となっていますが、今後より汎用的な人工知能を目指すのであれば、それに頼りすぎずより動物らしい知能を追求するのも大事に思えます。

 

「意識」は作れるか?

「意識」について考察した一連のツイートです。

人工知能の究極の目的は、「人工意識」なのかもしれません。

生物の神経系は複雑すぎるのでコンピュータで再現するのは難しい、という考えかたもありますが、逆に無駄が多いので複雑そうに見えるだけなのかもしれません。

大事なのは、知能の本質を捉えることですね。

「意識を持つ機械」が本当に意識を持っていることを、どのように判定したら良いのでしょうか。

チューリングテストなどは候補かと思いますが、それでもまだ不十分に思えます。

現行のコンピュータに意識が宿せない、と断言するのは悪魔の証明なのではないでしょうか。

異常検知は、まさにディープラーニングが得意としている分野です。

画像に対しても、それは適応可能なのではないでしょうか。

現状のAIは極めて限られたタスクにしか対処できない、とはよく聞きますが、それは原始的な神経系を持つ動物に関しても同じです。

AIの進化次第で、汎用性を持つようになる可能性は否定できないかと思います。

GPUは並列処理が得意で、CPUは直列処理が得意です。

これらを組み合わせれば、まさに脳のような処理ができるのではないでしょうか。

ネットワークが過剰に学習してしまうと、汎用性を失います。

環境が変化すると、そのような個体は有害となるため、淘汰する仕組みが必要です。

ジョブズも言っていましたが、「死」はとても有用なツールです。

読書録: 「意識の進化的起源: カンブリア爆発で心は生まれた」

神経学者、精神科医であるトッド・E. ファインバーグの著書、「意識の進化的起源: カンブリア爆発で心は生まれた」を読みました。

意識の進化的起源: カンブリア爆発で心は生まれた

意識の進化的起源: カンブリア爆発で心は生まれた

  • 作者: トッド・E.ファインバーグ,ジョン・M.マラット,Todd E. Feinberg,Jon M. Mallatt,鈴木大地
  • 出版社/メーカー: 勁草書房
  • 発売日: 2017/08/10
  • メディア: 単行本
  • この商品を含むブログ (5件) を見る
 

意識がどのようにして生まれたのか、なぜ意識がある必然性があるのか、その進化的な起源が知りたくて読んだ本です。 

少々断定的過ぎるようにも思えますが、この本によると意識は全ての脊椎動物と頭足類、節足動物に存在するとのことです。

以前に読んだ「意識はいつ生まれるのか」では巨大なネットワークにおける複雑な因果関係が意識の源泉であることを示唆していました。

blog.saiilab.com

このような意識は突然出現したわけではなく、5億4000万年前から始まったカンブリア紀を起源とし、環境において生き残るために徐々に進化していったものと考えられます。

個人的にも、著者の「意識」とは自然現象であり、膨大な無意識を監視するために進化の過程で生まれた高度な脳機能、というスタンスには同意です。

 

 

「はじめてのディープラーニング」がJDLAの推薦図書に選ばれました

弊社代表の著書「はじめてのディープラーニング」が、日本ディープラーニング協会(JDLA)の推薦図書に選ばれました。

www.jdla.org

「G検定合格者が選ぶディープラーニングおすすめ書籍ランキング」では、5位に選ばれています。

www.jdla.org

「はじめてのディープラーニング」は、ゼロからPythonを使ってディプラーニングをフルスクラッチで実装する本です。

数学やPythonの基礎から初めて、少しずつ丁寧に、ディープラーニングを手を動かしながら学んでいきます。

今後も、多くの方に読んでいただければ嬉しく思います。

 

Udemyで「自然言語処理とチャットボット: AIによる文章生成と会話エンジン開発」を公開しました

Udemyで新コース「自然言語処理とチャットボット: AIによる文章生成と会話エンジン開発」を公開しました。

f:id:azyukky:20190302150220j:plain

本コースは、自然言語処理を学び、チャットボットの開発につなげる講座です。
可能な限りシンプルに、自然言語処理の本質を解説します。
RNNやLSTMを学び、テキストや対話文の生成ができるようになりましょう。

本コースに必要なPythonと数学を習得した上で、単語をベクトル化するword2vec、時系列データを扱うRNNなどを学んでいきます。
そして、夏目漱石や宮沢賢治、江戸川乱歩の文体を模倣した、テキストの自動生成を行います。
また、Seq2Seqによる対話文の自動生成技術を学び、チャットボット開発につながる対話文の自動生成を行います。

(※)本コースは2019/3/2の時点でベータリリースです。近日中に以下のセクションの追加があります。
・文章の生成
・チャットボットの開発

自然言語とは日本語や英語などの我々が普段使う言語のことですが、自然言語処理(Natural Language Processing、NLP)は自然言語をコンピュータで処理する技術のことです。
自然言語処理は検索エンジン、機械翻訳、スパムフィルタ、音声アシスタント、小説の執筆や対話システムなど、様々な分野で活躍しつつあります。

————————————————————
本コースの主な内容は以下の通りです。
開発環境の構築、Pythonや数学の解説動画は、他のコースのものと重複する場合があります。

自然言語処理の準備
→ 環境の用意や前処理など、自然言語処理に必要な準備を行います。

word2vec
→ 単語や文章をベクトル化する技術について学びます。

リカレントニューラルネットワーク(RNN)
→ RNNについて基礎を学び、自然言語処理につなげます。

LSTM
→ RNNの発展形であるLSTMについて学び、自然言語処理につなげます。

文章の自動生成(※近日公開)
→ Seq2Seqにより、対話文を自動生成する方法について学びます。

チャットボットの開発(※近日公開)
→ 自然言語処理の技術を、チャットボットの開発につなげる方法を学びます
————————————————————

本コースでは可能な限り簡単に環境を構築できるように工夫していますが、お手元の環境によってはご自身で調べながの環境構築が必要です。
動画を見るのみでも学習が進められるようになっていますが、可能であればPythonのコードを動かしながら進めるのが望ましいです。
コードがダウンロード可能なので、これをベースにオリジナルの自然言語処理のコードを書いてみることもお勧めです。

修了した方は、学習意欲が刺激されて自然言語処理のことをさらに知りたくなっているかと思います。

以下はこのコースの割引クーポンです。ぜひ、ご活用ください。

https://www.udemy.com/ai-nlp-bot/?couponCode=NLPBOT-BLOG