#
#

深層学習に関連した研究


Neural Architecture Search

Deep Learning related Research

Neural Architecture Search

NAS (Neural Architecture Search) は、活性化関数、接続などを含む最適なアーキテクチャを探索する問題です。 画像認識や物体検出など、コンピュータビジョンの多くの場面で応用されています。 また、ENAS(Efficient Neural Architecture Search via Parameter Sharing)やDarts(DARTS: Differentiable Architecture Search)など、NASに適用されるアルゴリズムも様々提案されています。 本研究では、ニューラルネットワークの評価として複数の指標を組み合わせるベイズ法を適用し、 異なるデータセットにおけるニューラルネットワークのアーキテクチャを探索するTrueSkillとtraining-free prune-based algorithm(TTNAS)を導入します。 本アルゴリズムは、いくつかのデータセットにおいて、最先端の研究と比較して高い精度と効率性を実現しています。

NAS (Neural Architecture Search) is the problem of searching for the optimal model architecture including activation functions, connections, etc. It is applied in many aspects of computer vision, such as image recognition and object detection. Various algorithms have also been proposed for NAS, such as ENAS (Efficient Neural Architecture Search via Parameter Sharing) and Darts (DARTS: Differentiable Architecture Search). DARTS (Differentiable Architecture Search), and so on. In this study, we apply a Bayesian method that combines multiple indicators to evaluate neural networks, We introduce the TrueSkill and training-free prune-based algorithm (TTNAS), which explores the architecture of neural networks on different datasets. The algorithm achieves high accuracy and efficiency compared to state-of-the-art studies on several datasets.