• Tidak ada hasil yang ditemukan

パターン認識特論演習問題

N/A
N/A
Protected

Academic year: 2025

Membagikan "パターン認識特論演習問題"

Copied!
8
0
0

Teks penuh

(1)

2013/01/30 パターン認識特論演習問題 学籍番号 氏名

1. 下記の文章の空欄を埋めなさい.

 古典的パターン認識理論では,入力xに対してクラスωiへの帰属度を表す度合いを各クラスについて計算し,

その度合いが最も高いクラスωi に分類するという方法がよく用いられる.例えば,帰属度として事後確率

P(ωi|x)を用いる場合はこの値の大小で識別を行うが,これは 基準のもとで を最小化

する識別方法であることが知られている.

 では,入力と各クラスを代表するパターンとの余弦を計算し,その値が最も大きいクラス に分類するという計算が行われる.これを拡張した では, 行列の固有ベクト ルから成る複数の代表パターンとの内積計算を行い,それを対応する固有値によって重み付けした値を類似 度として用いるということが行われる.この方法では,「犬」「大」「太」など類似パターン間での誤識別が起 きるため,誤識別を起こしやすいパターンに対するペナルティを導入した も用いられる.

 これ以外に, では,入力パターンを,それに最も近い既知のパターン(プロトタイプ)が 属するクラスに分類する.この方法では, Voronoi Condensingという手法を用いると,識別面を変えずに 記憶するプロトタイプを減らすことができる.同様の方法として, , RNG Editing がある.これらの処理で残されるプロトタイプは,識別境界付近の誤識別を起こしやすい特殊例となる.

 このように,特殊例だけを記憶しそれによって識別を行う手法として がある.この方法ではマージン 最大化基準に基づいて線形識別面を求めるために,ラグランジェの未定係数法を用いた最適化計算を行って いるが,この計算によって未定係数αが となるパターンは特殊例すなわち となる.

 この例以外にも では,誤識別をおこしたトレーニングデータの重みを増して識別器のトレ ーニングを行いながら,識別器の系列を発生させ,これらの線形結合によって識別器の出力を得ている.こ のことは,誤識別を起こしやすい部分の重みを増すという意味で,特殊例を重視した識別法であると言える.

 以上のように,古典から現代的なパターン認識理論に至る世界観は「典型」から「特殊」へと変遷してきた と言える.しかし,特殊事例を用いた最初の識別法は, という最も古典的な識別法であっ たことは特筆に価する.

2. 次に示す閾値論理素子を用いてNOR素子の学習を行う問題を考える.w=(0 ,0)θ=0,α=0.25 として、下 記の表を完成させなさい.

3.

d

次元空間中に

n

個の独立なベクトルが存在する.これらのベクトルを用いて共分散行列を求めたとき,そ のランクはどれだけになるか?

d

n

を用いて表わしなさい.(7点)

Σ

x

1

x

2

y

a

y

 w

1

w

2

w1 w2 θ x1 x2 a y tα (t-y) δ w1 δ w2 δ θ

0 0 0 0 0 0 0 1 0.25 0 0 -0.25

0 1 0

1 0 0

1 1 0

0 0 1

0 1 0

1 0 0

1 1 0

0 0 1

0 1 0

1 0 0

1 1 0

0 0 1

(2)

4. 共分散行列

の固有値と固有ベクトルがそれぞれ

i

φ

i

( 1 i  n )

であるとき,

φ φ

iT

iの値はいくらになる

か計算で求めなさい.

5. 判別分析では, 1 1 2 2

1 2

W

n n

n n

  

  

1 2 1 1 2 2 12 2

( )( )

( )

T B

n n

n n

 

  

μ μ μ μ

とするとき,フィッシャー比

A A A A

T B T

W

を最

大化する問題を解き,射影軸

A

を求める. 2クラスの識別問題における,この問題の解き方を示しなさい.

6.

f (x )

Fourier 変 換 を

dx e x f

F (  ) = ( )

jwx と す る . こ の と き ,

f (x )

が 平 行 移 動 し た パ タ ー ン

( ) ( )

g x  f x  

のFourier変換を

F (  )

を用いた式で表しなさい.また,

に対して不変な特徴を抽出する

方法の一つとして,自己相関関数

R (  )  

f ( x     ) f ( x   ) dx

が考えられる.

R (  )

Fourier変換が

||

2

) (

|| F 

となることを示しなさい.また,この不変特徴の問題点について説明しなさい.

7. SVMの学習時に必要となる計算量のオーダをデータ数nおよびデータの次元数dで表現し,説明しなさい.

(3)

8. カーネルSVMを用いた識別では,識別面の形状が複雑になるほど計算時間がかかる.この理由を説明せよ.

9.

10. 下記の 2次元特徴分布それぞれに対して用意された識別方法の中で不適切なものを選び,適切な識別器と,

その理由を述べよ.

10. 漢字の認識にSVMやADA Boostingが適用しにくい理由にについて述べよ.

11. 不偏推定と最尤推定の意味の違いについて述べ,それぞれによって分散と平均を求めるとどのようになるか 式で示せ.

理由:

a) 部分空間法 b) 判別分析 c) 最近傍識別

(4)

12. Exclusive ORのパターンを学習することができるTLUネットワークを図示し,その構造の必然性を説明し なさい。

13. 直交展開における各基底関数の係数を内積によって決定することが,最小二乗法として妥当である事を示し なさい.

(5)

2013/01/30 パターン認識特論演習問題 学籍番号 解答例 氏名

1. 下記の文章の空欄を埋めなさい.(13点)

 古典的パターン認識理論では,入力xに対してクラスωiへの帰属度を表す度合いを各クラスについて計算し,

その度合いが最も高いクラスωi に分類するという方法がよく用いられる.例えば,帰属度として事後確率

P(ωi|x)を用いる場合はこの値の大小で識別を行うが,これは0-1損失基準のもとで損失を最小化する識別

方法であることが知られている.

 単純類似度法では,入力と各クラスを代表するパターンとの余弦を計算し,その値が最も大きいクラスに分 類するという計算が行われる.これを拡張した複合類似度法では,自己相関行列の固有ベクトルから成る複 数の代表パターンとの内積計算を行い,それを対応する固有値によって重み付けした値を類似度として用い るということが行われる. この方法では,「犬」「大」「太」など類似パターン間での誤識別が起きるため,

誤識別を起こしやすいパターンに対するペナルティを導入した 混合類似度法 も用いられる.

 これ以外に, 最近傍識別器 では,入力パターンを,それに最も近い既知のパターン(プロトタイプ)が属 するクラスに分類する.この方法では, Voronoi Condensingという手法を用いると,識別面を変えずに記 憶するプロトタイプを減らすことができる.同様の方法として, Gabriel Editing , RNG Editingがある.

これらの処理で残されるプロトタイプは,識別境界付近の誤識別を起こしやすい特殊例となる.

 このように,特殊例だけを記憶しそれによって識別を行う手法として SVM がある.この方法ではマージン 最大化基準に基づいて線形識別面を求めるために,ラグランジェの未定係数法を用いた最適化計算を行って いるが,この計算によって未定係数αが≠0 となるパターンは特殊例すなわちサポートベクターとなる.

 この例以外にもADA Boostingでは,誤識別をおこしたトレーニングデータの重みを増して識別器のトレー ニングを行いながら,識別器の系列を発生させ,これらの線形結合によって識別器の出力を得ている.この ことは,誤識別を起こしやすい部分の重みを増すという意味で,特殊例を重視した識別法であると言える.

 以上のように,古典から現代的なパターン認識理論に至る世界観は「典型」から「特殊」へと変遷してきた と言える.しかし,特殊事例を用いた最初の識別法は,最近傍識別という最も古典的な識別法であったこと は特筆に価する.

2. 次に示す閾値論理素子を用いてNOR素子の学習を行う問題を考える.w=(0 ,0)θ=0,α=0.25 として、下 記の表を完成させなさい(15 点)

3.

d

次元空間中に

n

個の独立なベクトルが存在する.これらのベクトルを用いて共分散行列を求めたとき,そ のランクはどれだけになるか?

d

n

を用いて表わしなさい.(7点)

min( , d n  1)

w1 w2 θ x1 x2 a y tα (t-y) δ w1 δ w2 δ θ

0 0 0 0 0 0 0 1 0.25 0 0 -0.25

0 0 -0.25 0 1 0 1 0 -0.25 0 -0.25 0.25

0 -0.25 0 1 0 0 0 0 0 0 0 0

0 -0.25 0 1 1 -0 0 0 0 0 0 0

0 -0.25 0 0 0 0 0 1 0.25 0 0 -0.25

0 -0.25 -0.25 0 1 -0 0 0 0 0 0 0

0 -0.25 -0.25 1 0 0 1 0 -0.25 -0.25 0 0.25

-0.25 -0.25 0 1 1 -1 0 0 0 0 0 0

-0.25 -0.25 0 0 0 0 0 1 0.25 0 0 -0.25

-0.25 -0.25 -0.25 0 1 -0 0 0 0 0 0 0

-0.25 -0.25 -0.25 1 0 -0 0 0 0 0 0 0

-0.25 -0.25 -0.25 1 1 -1 0 0 0 0 0 0

-0.25 -0.25 -0.25 0 0 0 1 1 0 0 0 0

Σ

x

1

x

2

y

a

y

 w

1

w

2
(6)

4. 共分散行列

の固有値と固有ベクトルがそれぞれ

i

φ

i

( 1 i  n )

であるとき,

φ φ

iT

iの値はいくらになる

か計算で求めなさい.(10点)

j

iT

S j

i

= j

iT

V LV

T

j

i

= j

iT

é ëê j

1

j

n

ù ûú

l

1

0 0

0 0

0 0 l

n

é

ë ê ê ê ê

ù

û ú ú ú ú

j

1T

j

nT

é

ë ê ê ê ê

ù

û ú ú ú ú

j

i

= l

i

5. 判別分析では, 1 1 2 2

1 2

W

n n

n n

  

  

1 2 1 1 2 2 12 2

( )( )

( )

T B

n n

n n

 

  

μ μ μ μ

とするとき,フィッシャー比

A A A A

T T B

W

を最

大化する問題を解き,射影軸

A

を求める. 2 クラスの識別問題における,この問題の解き方を示しなさい.

(7点)

T

1

W

A A

という条件の下での

A

T

B

A

の最大化問題と見なすと,Lagrange の未定係数法により、次の目 的 関 数 が 得 ら れ る .

J ( ) A  A

T

 

B

A  ( A

T

W

A  1)

こ の 式 の 両 辺 を

A

で 微 分 し た 式 ,

( ) 2

B

2

W

J 

    

 A A A

A

0 となることから,

  

B

A 

W

A

となり,これを整理することにより,

(   

W1 B

 I ) A  0

が 得 ら れ る . 即 ち,こ の 問 題 は ,

 

W1 Bの 固 有 値 問 題 に 帰 着 す る . 具 体 的 に は ,

T T

B

W

   

A A A A

であることから,

 

W1 Bの最大固有値が

J ( ) A

の最大値となり,それに対応する固 有ベクトルが

A

となる.

6.

f (x )

Fourier 変 換 を

dx e x f

F (  ) = ( )

jwx と す る . こ の と き ,

f (x )

が 平 行 移 動 し た パ タ ー ン

( ) ( )

g x  f x  

のFourier変換を

F (  )

を用いた式で表しなさい.また,

に対して不変な特徴を抽出する

方法の一つとして,自己相関関数

R (  )  

f ( x     ) f ( x   ) dx

が考えられる.

R (  )

Fourier変換が

||

2

) (

|| F 

となることを示しなさい.また,この不変特徴の問題点について説明しなさい.(15点)

) ( )

( )

( )

( )

(  f x  e dx f X e

( )

dX e

f X e dX e

F 

G

jwx jwX jw jwX jw

  

  

 e



d f x f x dx e



d f X f X dX e



d

R

j j j

   

 ( )  (   ) (  )  (  ) ( )

変数変換を行い,次の結果を得る.

2

* )

(

( ) ( ) ( ) ( ) || ( ) ||

X ) ( )

( T f X d e

dT f T e

dT f X e

dX F  F  F 

f

j T X

j T j X

 

    

このようにして得られた不変特徴は,各周波数成分間の位相情報まで消されているため,識別に利用でき る特徴が少なくなってしまうという問題点がある.

7. SVMの学習時に必要となる計算量のオーダをデータ数nおよびデータの次元数dで表現し,説明しなさい.

(15点)

SVM では各データ間の内積によって定義されるマトリクスを用いた 2 次形式を含む目的関数の最適化を 行う.このため,データ数nに対してマトリクスのサイズはn2となる.また,この最適化問題を解くため の計算量はO(n2)となる.データの次元数dは実質的に内積を計算する際にしか問題にならず,この計算量 はO(dn2)となる.

(7)

8. カーネルSVMを用いた識別では,識別面の形状が複雑になるほど計算時間がかかる.この理由を説明せよ.

(5点)

カーネル SVM では,識別の際に入力データとサポートベクターの内積(カーネル関数)を計算しなければ ならない.識別面の形状が複雑になればなるほど,サポートベクターの個数が増加するため,入力データと の内積(カーネル関数)の計算回数が増加するため,識別に要する時間が増加する.

9. 下記の 2次元特徴分布それぞれに対して用意された識別方法の中で不適切なものを選び,適切な識別器と,

その理由を述べよ.(5点)

10. 漢字の認識にSVMやADA Boostingが適用しにくい理由にについて述べよ.(3点)

漢字は数万以上のカテゴリがあり,クラス間の組み合わせで識別境界を学習する SVM や ADA Boosting は,組み合わせの数が膨大になるため,学習が困難になる.

11. 不偏推定と最尤推定の意味の違いについて述べ,それぞれによって分散と平均を求めるとどのようになるか 式で示せ.(5点)

最尤推定とは,ある分布モデルを仮定し,与えられたデータがその分布モデルから同時に生起する確率(尤 度)を最大化するように分布の母数を決定する手法である.ちなみに,分散と平均を推定する場合には正規 分布モデルが標準的に用いられる.これに対して,不偏推定とは,本来のデータ分布からサンプルした標本 点から推定した母数の期待値がバイアスを持たず真の母数と一致するように推定する方法である.

データ数を

N

,各データを

x

iとすると,平均は不偏推定,最尤推定ともに

1

1

N

i i

x x

N

 

となる.これに対し

て,最尤推定で求めた分散は 2

1

1

N

(

i

)

i

N 

x x 

であるが,不偏推定では 2

1

1 ( )

1

N i i

N

x x 

 

となる.

理由:b) 判別分析は不適切.その理由は各データの分布が集中しているため,図のように水平に近い識別面が得ら れるにもかかわらず,実際の識別面はかなり傾斜しているためである.このデータ分布に対してはLinear SVMを 用いるのが適している.

a) 部分空間法 b) 判別分析 c) 最近傍識別

(8)

12. Exclusive ORのパターンを学習することができるTLUネットワークを図示し,その構造の必然性を説明し なさい。

TLUは線形識別面の学習を行う機構である。線形識別面でExclusive ORのパターンを表現しようとする と、少なくとも2つのTLUが必要になる。どちらのケースでも、線形識別面によって区切られるどちらの 半空間にパターンが属するのかを判定するTLUと、それらを総合して、出力として1を出すか否かを決定 するTLUが存在する必要があるため、上図の構造のネットワークになる。但し、各TLUの-1に固定され た入力は省略している。

13. 直交展開における各基底関数の係数を内積によって決定することが,最小二乗法として妥当である事を示し なさい.

未 知 の 関 数 を

f (x )

と し ,

f

*

( x) = c

i

j

i

( x)

i=1

å

N と い う 形 式 で こ の 関 数 を 近 似 す る . こ の と き ,

f (x) - f

*

(x)

( )

a

ò

b 2

dx

の値を最小化する

c

iを求める問題が最小二乗法である.

( f , g) = f ( x) g(x)

a

ò

b

dx

f ( x)

g(x)の内積と定義する.

このとき,最小化する目的値は

f ( x) - f

*

(x)

( )

a

ò

b 2

dx =|| f (x) - f

*

(x) ||

2

=|| f ( x) - c

i

j

i

(x) ||

2

i=1

å

N

=|| f ( x) ||

2

-2( f (x), c

i

j

i

(x)

i=1

å

N

)+ || c

i

j

i

(x) ||

2

i=1

å

N

となる.これをciで偏微分して0とおく事により,右 の結果を得る.これを連立方程式で表せば,下記のよ うになり

( j

1

, j

1

) ( j

1

, j

N

) ( j

N

, j

1

) ( j

N

, j

N

) é

ë ê ê ê ê

ù

û ú ú ú ú

c

1

c

N

é

ë ê ê ê ê

ù

û ú ú ú ú

=

( j

1

, f ) ( j

N

, f ) é

ë ê ê ê ê

ù

û ú ú ú ú

直交関数を用いた場合,左辺の行列は単位行列になり,結局,下記のようになる.

TLU TLU

TLU

x

1

x

2

2 1

2 2

1 1

1

|| ( ) ( ) ||

|| ( ) || 2( ( ), ( )) || ( ) ||

2( ( ), ( )) 2( ( ), ( )) 0

N i i k i

N N

i i i i

i i

k

N

k k i i

i

f x c x

c

f x f x c x c x

c

f x x x c x

 

  

 

   

   

 

c

1

c

N

é ë ê ê

ù û

ú ú = ( j

1

, f ) ( j

N

, f ) é

ë ê ê

ù

û

ú ú

Referensi

Dokumen terkait

- 11 - 1. 問題の所在―言葉の獲得とは 何か 一般的に,教科書を用いた学習活動では,教科 書で提示されている「学ぶべき」知識の吸収に学 習者を集中させることが多い。「学ぶべき」知識 を理解したら,練習で知識を定着させ,「必要な 時」に正確にそれを呼び出す。「必要な時」に適 切な知識を呼び出して,正しく「運用」できれば,

認知合計の相関関係を調べた。 その結果を見ると, 大学生と高校生の両方で 「科目合計」 と 「メタ認 知合計」 の相関が有意であった。 科目に関して得 意と思っている対象者は, メタ認知の能力が高い という傾向がある。 また, 大学生と高校生の両方 で 「成績への意識」 とメタ認知合計の相関が有意 であった。 クラスの中で自分の成績が良いと思っ ている対象者は,

熊本大学 数理科学総合教育センター §2 データリテラシー 2 演習問題 問題の難易度の目安【易】899 【基礎】889 【標準】888 1 889統計的観点からの考察 ある大学の学生の成績表には,S秀,A優,B良,C可の4種類と不合格Fのみが記載さ れている.Sは90点から100点,Aは80点から89点,Bは70点から79点,Cは60点から69

V をK上のベクトル空間とする.以下の問に答えよ. i o′ ∈V は,どんなx∈V に対してもo′+x=xをみたすとする.このとき,o′ =oとな ることを示せ(すなわちベクトル空間V に対して,零ベクトルはただ1つである). ii x∈V とする.また,y∈V はx+y=oをみたすとする.このとき,y=−x となるこ とを示せ(すなわちx∈V

x y平⾯において,原点を中⼼として,x軸を⾓θだけ回転した直線をlθ とする.直線 lθ に関する折り返し(平⾯上の点をlθ に関して線対称な位置に写す操作)をTθ とする. 平⾯上の点をベクトルと同⼀視することによりTθ をR2からR2への写像とみなすと,こ れはR2からR2への線形写像となる.線形写像Tθ

行列に対して行う次の3つの操作を列基本変形という. C1 c̸= 0なるc∈Rを用いて,第i列をc倍する(表記: cci). C2 c∈Rを用いて,第i列に第j 列のc倍を加える(表記: ci+ccj). C3 第i列と第j 列を入れ替える(表記: ci ↔cj) 行列Aにある列基本変形を行って行列Bが得られることを行基本変形と同様にA →Bと表す.

これは U が unitary 行列であることを示している。 27 解答 簡単な説明は講義ノート §1.10 に書いておいた。この問題は奥が深いので、興味を持った人は調べて みると良い

確認事項: 奇関数と偶関数 f: R→Rについて、f が奇関数であるとは f−x =−fx x∈R が成り立つことをいい、f が偶関数であるとは f−x =fx x∈R が成り立つことをいう …… 関数 fx = xk k は自然数 の指数 k の偶奇から来ているのだ と想像する。 奇関数×奇関数=偶関数, 奇関数×偶関数=奇関数, 偶関数×偶関数=偶関数