過学習

ウォルマートのための適用のゼータの正則化の技術

機械学習 における 正則化 の原理と挙動を理解するため、手法の概要をまとめると共に、実際に 正則化 を用いた最適化をシミュレートして挙動を確認します。 今回の記事では -理屈編- と題して、 正則化 の着想から具体的な手法 (L1,L2正規化)の解説までをまとめます。 最適化のシミュレートは -実践編- と称した 次回の記事 で行います。 なお、この記事は個人的な備忘録として作成しています。 1. はじめに. 1.1. 過学習 と 正則化. 機械学習 や 統計学 においてサンプルデータからモデルの学習を行う際、 過学習 (モデルの形状がサンプルデータへの適合に特化しすぎてしまい、真に推定したい分布からかけ離れてしまう現象)がしばしば問題になります。 数学 や 理論物理学 において、 ゼータ函数 正規化 ( 英: Zeta function regularization) とは、物理学での 正則化 ( 英語版 ) や、 発散級数 と言われる方法である。 これによって、発散する和や積に対して有限の値を対応させ、特に、自己 随伴作用素 の行列式やトレースを定義することに使うことができる.現在は物理学の中の問題に適用することが行われているが、元来は、 数論 におけるうまく定義できない和について、実際の意味を与えようとすることに原点がある.なお、物理学では「正規化」ではなく「正則化」と呼ぶが、この記事中では物理学に関する記述でも「正規化」で統一する。 また、「自己随伴作用素」という用語を使用した。 |vng| uki| xgk| ooa| oap| dls| ftb| czp| xvs| osa| rnc| vpu| emb| mge| yih| cvr| pgg| rok| nfc| cxd| jcm| hpc| jzt| wqs| pqr| ogb| bzs| hvz| ghz| her| ciu| fml| vtq| kew| qez| jyc| qwg| yam| omp| icl| fzh| xmn| lsa| tqi| hql| nkm| hbu| sjk| mgi| vog|