パターン認識


※上記の広告は60日以上更新のないWIKIに表示されています。更新することで広告が下部へ移動します。


パターン認識

入力変数をx、出力変数をyとしたとき、学習データセット\rm{D} \ni (x_i,y_i)からxyの間に存在する規則性を見つけ出し、新しく観測された\hat{x}に対応する\hat{y}を求めることをパターン認識という。なお、出力変数が連続値の場合は 回帰分析 と同等である。

機械学習には、大きく分けてパラメトリックなアプローチとノンパラメトリックなアプローチとがある。パラメトリックなアプローチでは、確率分布関数P(y|x)を一次独立な関数の線型(非線型)結合によって表現し、そのパラメーターを推定する。一方、ノンパラメトリックなアプローチでは、データ集合から直接に目的の確率を計算する。

ある入力xに対して出力yが,y=f(x)にしたがって決まるとする.このとき, 学習セットt_i = [x_i, y_i]の集合から関数fを推定することを機械学習と呼ぶ. yが有限離散数の場合は,関数fが入力xの分類器の役割を果たすので パターン認識 と呼ばれ,yが有限離散数の場合は回帰と呼ばれる.なお、出力変数が連続値の場合は 回帰分析 と同等である。

機械学習

入力変数をx、出力変数をyとしたとき、学習データセット \rm{D} \ni (x_i,y_i) から条件付き確率分布P(y|x)を推定することを機械学習という。 無作為抽出されたサンプル集団から(母集団の)確率分布を推定することになるので、機械学習は 推測統計学 と関係が深い。実際、機械学習で使う技法の多くは推測統計学のものである。なお、出力変数が連続値の場合は 回帰分析 と同等である。

機械学習には、大きく分けてパラメトリックなアプローチとノンパラメトリックなアプローチとがある。パラメトリックなアプローチでは、確率分布関数P(y|x)を一次独立な関数の線型(非線型)結合によって表現し、そのパラメーターを推定する。一方、ノンパラメトリックなアプローチでは、データ集合から直接に目的の確率を計算する。

パターン認識と回帰分析

ある入力xに対する出力yが,関数y=f(x)にしたがって決まるとする.このとき,入力と出力(教師)の組(x_i, y_i)の集合(学習データセット)\bf Dから関数fを推定することを 機械学習 とよぶ. パターン認識 の場合は、yが有限離散変数\rm{C}_kであり、関数fはクラス分類をおこなう。一方, 回帰分析 の場合は、yが連続変数である.

ベイズ推定法

確率的情報処理をパターン認識に適用する.
ベイズ推定法から前述のNN法を導出することもできるため,一般的なパターン認識法の一般的な表現ともいえる??
学習のメカニズムを説明するのにも適している??

最近傍法

NN法

入力ベクトルとプロトタイプベクトル(クラスを代表するベクトル)の距離を測り,もっとも近いプロトタイプの属するクラスを認識結果として出力する方法を最近傍法(NN法)と呼ぶ.

まず,分類するクラスがc個あるとして,それぞれを\{ \omega_1, \omega_2, \cdots, \omega_c \}で表すとする.
特徴ベクトルがd次元であるとすると,クラス\omega_iのプロトタイプ\bf{p}_iは以下のように定義される.
\bf{p}_i = (p_{i1}, p_{i2}, \cdots, p_{id})^t  (i = 1, \cdots, c)
このとき,入力ベクトル\bf{x} = (x_1, x_2, \cdots, x_d)^tとプロトタイプ\bf{p}_iとの距離は次式によって求められる.
D(\bf{x,p}_i) = ||\bf{x - p}_i||
この距離を最小にするプロトタイプの属するクラスが識別器の出力となる.
(余談:2クラス問題のNN法はパーセプトロンと数学的に等価である.《(参考)フリーソフトでつくる 音声認識システム》)

K-NN法

NN法では,最近傍のプロトタイプベクトルにより,入力ベクトルの識別をおこなった.
k-NN法では,最近傍のk個のプロトタイプベクトルにより,入力ベクトルの識別をおこなう.
最近傍のk個のプロトタイプベクトルを探し,その中で多数を占めたクラスを識別結果とする.

サポートベクトルマシン(SVM)

概要

線型非分離な問題への対策

ツールボックス

下から選んでください:

新しいページを作成する
ヘルプ / FAQ もご覧ください。