ニューラルネットワークにおけるTanh活性化関数のパワーをご覧ください。AIが複雑なデータをゼロ中心の効率でモデル化する方法を学ぶ!
Tanh(ハイパーボリックタンジェント)は、人工知能(AI)や機械学習(ML)、特にニューラルネットワーク(NN)で広く使われている活性化関数である。シグモイド関数と同様に、TanhはS字型(シグモイド)であるが、入力値を-1から1の範囲にマッピングする。他の活性化関数と同様に、Tanhはネットワークに非線形性を導入し、ディープラーニング(DL)モデルが線形モデルでは捉えられない複雑なパターンやデータ内の関係を学習することを可能にする。数学的な双曲正接関数に由来する。
Tanh関数は、任意の実数値入力を受け取り、それを(-1, 1)の範囲に押し込む。ゼロに近い入力はゼロに近い出力を生む。大きな正の入力は出力が1に近づき、大きな負の入力は出力が-1に近づく。そのゼロ中心の性質は、シグモイド関数(0と1の間で出力する)よりも利点があると考えられがちです。なぜなら、勾配降下法などの 最適化アルゴリズムが モデル学習中に早く収束するのを助けることができるからです。これは、バックプロパゲーション中に引き渡される勾配が、正負のバランスの取れた値になる可能性が高く、より安定したモデルの重みの更新につながる可能性があるためです。
利点がある:
デメリット
タンは歴史的に特に人気のある選手だ:
のような最新のアーキテクチャーは Ultralytics YOLOのような最新のアーキテクチャでは、物体検出などのタスクにSiLUのような関数を利用することが多いが、Tanhを理解することは依然として価値がある。それは活性化関数の進化に文脈を提供し、特定のネットワーク設計やレガシーシステムにまだ現れるかもしれない。フレームワーク PyTorchや TensorFlowのようなフレームワークがTanhの実装を提供している。Ultralytics HUBのようなプラットフォームを使って、様々な活性化関数をトレーニングし、実験することができる。