深層学習– tax –
深層学習(ディープラーニング、Deep Learning)とは、多層のニューラルネットワークを用いてデータの複雑な特徴表現を自動的に獲得する機械学習の一手法です。従来の機械学習では人手で設計していた特徴量を、モデル自身がデータから階層的に学習する点が本質的な特徴であり、画像認識・音声認識・自然言語処理などの分野で従来手法を大幅に上回る精度を達成しました。
代表的なアーキテクチャとして、画像処理に強い畳み込みニューラルネットワーク(CNN)、時系列データに適した再帰型ニューラルネットワーク(RNN/LSTM)、そして現在のLLMや画像生成モデルの基盤となったTransformerがあります。学習には大量のデータと計算資源(GPU/TPU)を要しますが、転移学習や事前学習済みモデルの活用により、少量のデータでも高精度なモデルを構築するアプローチが一般化しています。
深層学習が実用段階に入った転換点は、2012年の画像認識コンテストImageNetでCNNベースのAlexNetが従来手法に圧倒的な差をつけた出来事でした。以降、CNN→RNN→Transformerと主流アーキテクチャが移り変わり、2022年のChatGPT登場で一般社会にもその影響が可視化されました。現在は画像・動画・音声・テキストを統合処理するマルチモーダルモデルの研究が盛んで、自動運転・創薬・ロボット制御など物理世界への応用が次のフロンティアとされています。
