はじめに

2002年Dr Hintonが生み出した、Contrastive Divergence Methodが発明され、2012年、その方法を活用した Deep Learningの登場により、それまで超えられなかった深層学習の限界に技術革新がおきました。

%e5%9b%b31

 我々は、機械学習のフレームワークを開発するにあたり、なぜ多層化されたニューラルネットワークが機能するのかを考えた結果、繰り込み理論が重要な役割を担っていると考えています。ReNomはこの繰り込み理論「Renormalization」の文字をとり命名しました。

また、このフレームワークは、実際のビジネスで活用される事を目的にしております。過去のフレームワークをさらに発展させ、実際のビジネスの現場で使えるようなフレームワークを目指しています。深層学習において、Dr Hintonが生み出した、CD Methodに続く大きな技術的な革新はまだ起きていません。次のブレークスルーをどのように生み出すかが、とても重要だと考えます。我々は、この繰り込み理論の先に、それがあると考えます。

VISION

人工知能を誰でも使えるように一般化する事と、より高度なアルゴリズムを開発し、さらなるブレークスルーを生み出す事を目指しています。我々はこの異なる2つのミッションに対して、取り組んでいます。

現在の機械学習の問題点

現在の機械学習は、一部の世界で使われているにとどまっており、広く一般の社会で使われておりません。実際のビジネスシーンでは、大量のデータを使い、リアルタイムで処理を進めようとすると、コンピュータの処理能力の限界をすぐに超えてしまうことが原因と考えられます。過去のフレームワークでは、様々なディープニューラルネットワークを構築できるかわりに、処理が重くて動かない、データを学習する際に、なかなか遅くて計算が終わらない・・といった課題がありました。これらの問題は、理論計算を行う上で、永遠の課題ではありますが、ReNomエンタープライズ版では、少しでもその問題を解決し、実際のビジネスの現場で使えるようなフレームワークを目指しています。また、一般的に機械学習を使おうとすると、一部のエンジニアしか使いこなす事ができません。単純にプログラムソースが書けるだけでなく、機械学習の理論を理解しないと、動かす事すらできません。我々は、一般のビジネスパーソンが、メールや計算ソフトを使い、問題を分析・検討・考察するように、多くの人が少しでも新しい技術である機械学習を使いこなし、それぞれの問題を解決し、新しい発見や、新しいビジネスが生まれるように、ReNomビジネスユース版では、誰でも使えるようなアプリケーションの提供を目指しています。

ReNom ver.0.1の設計思想

このReNomは、「自由で簡単にネットワークが定義でき、計算メモリが最適化され、計算速度が速いフレームワーク」を目指しました。

1ネットワークの構築が容易

日々複雑化しているディープニューラルネットの構造に対応できるよう、各層を自由に接続でき、どんなネットワークでも作れる事を目指しました。一般的に実装が難しいとされる再起型ニューラルネットワークなども容易に構築する事ができます。

2プログラミングが不要

機械学習を誰でも使用する事ができるよう、プログラミングする事なく、JSONファイルで定義する事ができようにしています。さらに、プログラマーにも大きな自由度を与え、研究者が行う高度なチャレンジも実現可能にしています。

3計算メモリの自動最適化

機械学習では、より複雑で、多層なネットワーク構造が求められるようになってきております。過去のフレームワークでは、複雑なネットワーク構造になると、そこで行われる計算に必要なリソースを最適にする事が難しかったのですが、ReNomでは、ネットワーク構造を自由に構築する事と、メモリ管理を両立させる事を目指しました。ユーザーが自由に設計したネットワークの計算に必要なリソースを自動的に理解し、学習時に必要な全ての計算内容を最適化しています。

4計算スピードの高速化

ReNomでは、ユーザーが個別で設計したネットワークに最適化されたプログラムを動的に生成する事で、計算内容を最適化し、高速化を実現しています。また、さらなる計算速度向上のため、GPUをサポートし、演算処理を高速化しています。さらに今後は、新たなアルゴリズムを追加し、計算方法自体を変えてしまう事で、計算スピードの高速化を目指します。

今後の開発方針について

このフレームワークは生まれたばかりで、完全ではありません。今回リリースするReNomは、バージョン0.1と定めています。徐々にバージョンを上げていきますが、バージョンが1に到達した際に、本来の我々が実現したい事に近づいていくと考えています。また、現在、機械学習に使われている多くのアルゴリズムの物理式は、非常に高度なものですが、そこで使われる理論は、古典物理学から、場の量子論に移行していくと考えています。さらに我々は、ディープラーニングが行うパターン認識だけに限らず、他の問題の解決に対しても研究を重ね、今までにない方法を生み出し、人工知能のさらなるブレークスルーを生み出す事を目指します。