• Tidak ada hasil yang ditemukan

実時間リカレント学習による時系列予測について

N/A
N/A
Protected

Academic year: 2024

Membagikan "実時間リカレント学習による時系列予測について"

Copied!
12
0
0

Teks penuh

(1)

古橋秀樹・成久洋之*

岡山理科大学大学院工学研究科修士課程情報工学専攻

*岡山理科大学工学部情報工学科

(1998年10月5日受理)

1.はじめに

本研究では,時系列予測を行う実時間リカレント学習(RealTimeRecurrentLearning:

RTRL)と時系列予測版に拡張したパターン識別・分類を行うクラスタ方式のカウンター プロパゲーション(CounterPropagation:CP)と,このネットに出力判定機能を追加し

たビジラントCP(VigilantCP:VCP),CPとVCPに自己組織化特徴地図(Self-Organizing

FeatureMap:SOFM)を組み込んだSOFMCESOFMVCPの動作特'性の比較検討を 行う。さらにこれらに重み修正法のクイックプロップ(QuickProp:QP)を組み込んだネッ

トワークの比較検討を行う。適用する問題は,時系列予測問題を用いた。

2.実時間リカレント学習について

フィードフォワードの階層型ネットワークにフィードバックを取り入れたリカレントニュ ーラルネットワークは,階層型ネットワークの時空間への一般化とみなされ,時空間情報 の取り扱いを可能にすることができる。本研究では,このようなリカレントニューラルネ ットワークである実時間リカレント学習(RealTimeRecurrentLearning:RTRL)を扱

う。このRTRLは,誤差の逆伝播を行わないで実時間で結合荷重の更新を行うというネ

ットワークである。

2.1実時間リカレント学習の構成

このRTRLのネットワークを構成するユニットは,入力ユニット(inputunit),出力 ユニット(outputunit)および隠れユニット(hiddenunit)とよばれる3種類のユニット

に分類される。ここで,入力ユニットは全ての出力ユニットと隠れユニットに結合され,

出力ユニットと隠れユニットはそれぞれ互いに結合されている。なお,しきい値の学習を

行うために,入力ユニットの中には常に1を出力する仮想的なユニットが含まれているも

のとする。

2.2実時間リカレント学習の学習則

まず,リカレントニューラルネットワーク(RecurrentNeuralNetwork:RNN)にお いて,時刻/におけるユニットノの出力をご‘(/)とする。ここで,入力ユニットの出力をjrAj),

(2)

教師信号●●●教師信号教師信号 出力層

中間層出力

入力層

、ノL tOt-1tto+’

図’リカレントニューラルネットワーク

隠れユニットと出力ユニットの出力をy`(/)とすれば,gAt)は,

蟇化)側創恥

(1)

のように表すことが出来る。ここで,I,H,Oは,それぞれ入力ユニット,隠れユニット,

出力ユニットの添字の集合を表している。

隠れユニットと出力ユニット入出力関係は,以下のようになる。

y‘(t+1)=た(s化十1)),jeHUO

s化十')=冒川(t)+j鍋。州(')

=Zzc脚(t)jEJUHUO

(2)

(3)

ここで,z(ノガはユニットノからユニットノヘの結合荷重,s(t+1)はユニットノの内部状態 を表し,入出力関数/(・)は微分可能な単調増加関数と仮定する。

/(・)は具体的な関数形としては,ロジステイック関数などのシグモイド関数

/Xsパオ))=祠F百=57T7T

(4)

を用いる。

本研究では,RNNにおける学習法として,誤差の逆伝播を行わないで実時間で結合荷 重の更新を行う実時間リカレント学習(realtimerecurrentlearning:RTRL)法を取り 扱う。

いま,時刻tにおける実際の出力と教師信号との2乗誤差関数を

(3)

E(')=吉昌(."))z=合昌(`1A(卜y#('))’

(5)

と定義する。

このような誤差関数E(/)を結合荷重で偏微分すれば

鶚一息.壜(t)二諾:Z,にHUW-rUHUO となる。ここで馴署鍔とおくと

(6)

鴎(tM(w))(卿-1)-鼠。M{i(`-1))

(7)

となり,この6かは

昨Ill二鮠

(8)

となるクロネッカーのデルタである。

したがって,〃を学習率とすれば,結合荷重の更新量△zりぴ(t)は

Mw)-,鶚-,恩・壜(tw(`)

(9)

で与えられる。

このように,RTRLでは跡(t)を式(7)に基づいて,

去の入出力や結合荷重を保持しておく必要がない。

実時間で逐次計算しているので,過

3.カウンタープロパゲーション(CP)について

階層型ニューラルネットワークのカウンタープロパゲーション(CounterPropagation:

CP)は,ニューラルネットワーク(NeuralNetwork:NN)の並列アーキテクチャを利

用するパターン参照システムとして提案された。これは,あらゆるデータのパターンマッ

ピングを行うネットワークとして,データ予測,パターン分類,関数近似,データ圧縮等

に用いられている。

3.1カウンタープロパゲーションの構成

カウンタープロパゲーション(CounterPropagation:CP)は,新しいタイプのネット ワークを構成するために,他のパラダイムからの異なる層を組み合わせるネットワークの

よい例である。CPは,競合学習ネットワーク(CompetitiveLearningNetwork:CLN)

とフィルター学習ネットワーク(FilterLearningNetwork:FLN)の異なるネットワー

(4)

クの組み合わせによって構成されている。このネットワークは,入力層と,隠れ層である 競合学習を行うKohonen層と,最上層であるフィルター学習を行うGrossberg層の3層 から成り,完全結合している。

3.2カウンタープロパゲーションの学習則

カウンタープロパゲーション(CP)は,まず入力層へ与えられたデータを用いKohonen 層による競合学習が行われ,ここで得られたデータと入力層へ与えられたデータを用い Grossberg層によるフィルター学習を行われ,結果を出力する。CPの学習則をstep形式 で表すと次のようになる。ただし,Kohonen層に入る入力データをjrKj=1,…,〃),

Grossberg層に入る入力データをyi(ノー1,…,柳)とする。また,競合学習ネットワーク の重み設定を恥(ノー1,…伽(ノー1,…,〃),フィルター学習ネットワークの重み設定を

"jガ(ノー1,…伽(ノー1,…,〃),ネットワークの出力データをy;(ノー1,…〃)とする。

Step1.学習で用いるデータの設定

①データの正規化を行う前に,結果を出力する際に用いる係数を求める。

00 01)

S〃腕ゴーy'+y2+…+ルー1+”

γ-鵠…

ただし,学習に用いる訓練データのパターン数をPとし,Grossberg層へj番目 に入る訓練データの和をs"”とする。

②競合学習ネットワークの入力データ雄と重みzuj‘,フィルタ学習ネットワークの入 力データy‘と重み鰍の正規化を行う。

Step2.競合学習ネットワークによって競合

①入力データjriと競合学習ネットワークの重み雌を用いて重み付き和Sjを求める。

S=Zjrjlブガ

②競合により最大の重み付き和Sjをもつユニットが勝者ユニットとなる。それゆえ,

Sc=maxSjq3I

③ただし,この最大値はすべての競合ユニットにわたってとられる。同値の場合は,

規約により左のユニットが勝者ユニットとなる。これより,勝者ユニットの活性値 zcは,

zc=1.0

それ以外のユニットである敗者ユニットの活性値は,

(5)

動=0.0:ノキcの場合 (1,

となる。この競合の結果を用いて,ネットワークの重みの更新が行われる。

Step3.競合学習ネットワークで,勝者ユニットへ入る重みのみ修正

z(ノ藤妙=z(ノ牙。+α(妬j-z(ノ厨。) ただし,α(0.0<α二1.0)は学習定数である。

Step4.競合信号を受けて,フィルター学習ネットワークの重みの信号修正

"僻=嘘!`+β(yボー娘")zガ (17)

ただし,β(0.0<β≦1.0)は学習定数である。この学習則は,Kohonen層の勝ち処理 要素(z-1.0のもの)からの入力に付随した重みだけを変更する。

Step5.Step2~Step4について繰り返し学習 Step6.結果y;を学習後の重み〃j1ze”を計算

y;=γ×〃野幽 (10

4.ピジラントCPについて

ビジラントCP(VigilantCounterPropagation:VCP)は,CPとの相違点として,

2つ考えられる。

第1の相違点は,入力ベクトルに対する隠れ層において競合ユニットに加えて,競合に 参加しないユニット(非競合ユニット)を付加する。

第2は,更にビジランスユニット(VigilanceUnit:VU)をもち,ネットワーク出力の

監視と評価を行う。これは,望ましい出力yKj=1,2,…〃)とネットワークで得られた

現出力y;(ノー1,2,…伽)の両方の出力ユニットからの情報によって,ネットワークの重み

を修正することによって行われる学習に影響を及ぼす。

4.1ピジラントCPの構成

ビジラントCP(VigilantCounterPropagation:VCP)は,CPの隠れ層において競 合に参加しないユニットである非競合ユニットとネットワーク出力の判定を行うビジラン

スユニット(VigilanceUnit:VU)を付加したネットワークである。

4.2ピジラントCPの学習則

学習則においてCPと異なる点は,重みの修正を行うStep3,4の前に,競合のとき 追加したビジランスユニット(VU)によりネットワーク出力の判定を行う。希望出力yj(ノ ー1,2,…伽)と現出カツ;(ノー1,2,…〃)との2乗誤差Qは,次式のように計算される。

Q=(y1-yi)2+(ルーy2)2+…+(州,-ルーi)2+(y"-ylh)2

(19
(6)

VUでは,この2乗誤差Qが設定されたしきい値より大きければ競合ユニットの重み修 正が行わず,その代わりとして未使用の非競合ユニットが選出され,その重みは,

□●ロ⑥●●■ら兀y

’’ ’’

〈)》万・・6〃・・巴妨的

01)

とセットされ,次回よりこのユニットは競合に参加する。

また,2乗誤差Qがしきい値より小さければCP学習則のStep3,4での重み修正を 行う。

以上の処理を繰り返しVCPの学習を行い,結果を出力する。

5.自己組織化特徴地図について

教師なし学習の1つで,高次元データを1次あるいは2次程度の低次元空間に写像する ものである。このネットはもとのデータの密度が写された空間での広がりにうまく対応す るため,様々な情報を取り出すことが出来る。

5.1自己組織化特徴地図の構造

自己組織化特徴地図は2層ネットワークである。その第1層は入力層である。ほとんど の場合,第2層は競合層であって,2次元配列として構成されている。すべての相互結合 は第1層から第2層へと結合されている。これらの2つの層は完全結合であり,各入力ユ ニットは競合層の全てのユニットと結合している。以下にこの基本的構造を示す。

5.2自己組織化特徴地図の学習則

この学習則のアルゴリズムにより,格子状のノードを組織して,入力データの特徴を分 類する局所的な近傍を作る。これは,入力パターンとネットワーク内の蓄積されたベクト ルを比較することを繰り返して,自己組織化される。このとき,いずれの学習データに対

してもネットワークに期待される出力の情報は与えられない。入力データがノードの持つ ベクトルにマッチした場合,その場所の近傍領域が,そのクラスの学習データの平均値を 表現するように最適化される。無秩序だったノードの組が,局所表現を持つ特徴マップに 収束し,自己組織化される。このアルゴリズムをStep表現すると以下の手順になる。

Step1.ネットワークの初期化

zMt)(Oニノニ〃-1)を時刻/における入力jからノードノヘの結合荷重とする。そし てこの〃個の入力データからノードヘの結合荷重を乱数で初期化するとともに,ノード ノの近傍の初期範囲ハル(0)を大きく設定する。

Step2.入力データの提示

兀化)(0≦ノー〃-1)を,時刻/におけるノードノヘの入力とする。

Step3.距離の計算

以下の式により,入力データと出力ノードノとの距離cZjを計算する。

(7)

Hcjiflfl二':と|; (U

競合層

○○C

入力層

図2自己組織化特徴地図

刀-1

必=蔓(妬`(/)-M))’

Step4.最小距離の選択

距離c巧が最小となる出力ノードを/*とする。

Step5.結合荷重の更新

ノードノ*と」VW)で定義される近傍への結合荷重を以下の式により更新する。

恥(t+1)=雌(/)+〃(ノル(r)-川(/))

ここで,ノはjVW)に含まれるすべてであり,0ニノニ〃-1である。また,〃(/)は,

ゲイン(0<W)<1)であり,時間とともに減少させ,重みの更新速度を減少させる。

近傍M(')も,時間とともにサイズを減少させ,更新される領域を狭めていく。

Step6.Step2~5を繰り返し行う

6.クイックプロップについて

ニューラルネットワーク学習アルゴリズムとして提案されたクイックプロップ(QuickProp:

QP)は,ニュートン法を基にした2次法(secondorder)である。

6.1クイックプロップの学習則

このアルゴリズムは,現在の勾配と1時刻前の勾配との差を重みの更新をすることによっ て,関数値の近似を行う。

△w)=T二)44百r7TM(H)

式(M)のSは現在と1時刻前の勾配aEDz(ノであり,このSの関係には3つの場合が考えら

れる。

(8)

①S(t)がS(ノー1)よりも小さく,方向も同じ:

この場合は,重みは同じ方向に更新され,学習率eも使用する。

M(`)-.s㈹+丁等二両△w(`-,)

(251

②S(t)の方向がS(ノー1)とは逆方向:

この場合,重みは最小値を飛び越して谷の反対方向へ行ってしまう。そのため,次の 時刻における重みは,1時刻前と現在の重みの中間位置となる。そのためには式(20がそ のまま使用される。

③S(/)とS(ノー1)の方向は同じだが,S(/)の大きさがS(ノー1)以上:

この場合には,単純に勾配降下を行うと,重み変更量が無限大となるか,方向に移動 してS(/)よりも上の位置となって局所最小値へ落ち込んでしまう。これを回避するため,

最大成長因子(muximumgrowthfacto)と呼ばれる新しいパラメータ似を導入し,こ の重みの場合の変更量は1時刻前である重みの変更量の匹倍,つまり,

M(/)=ごS(t)+"M(ノー1) 00 とする。

これらの3つの条件により,各々重みの修正を行う。

7.クラスタ方式の適用について

本実験で取り扱うRTRL以外のネットワークに,それぞれクラスタ方式を適用する。

これはまず,それぞれ異なった初期重みデータを与えられた複数個のネットワークを各々 繰り返し学習する。学習して得られた結果をネットワークごとの出力必#(ノー1,2,…,/b-1,

ノセ)(ノー1,2,…〃-1,腕)が出力層の各ユニットに入り,その出力蛾の平均値を最終出力 結果y:(ノー1,2,…,〃一Mz)として出力される。

本実験では,複数個のネットワークをそれぞれクラスタとする。このクラスタ数がノ6個,

j(ノー1,2,…,"0-1〃)番目の出力層ユニットの出力値y1'は,次式より求まる。

pFe,的.。(z何『Ⅱ00--・”』一戸一》

||

〃C2l鞆》〉唇》

8.実験要領

本実験では,リカレントニューラルネットワークで主に時系列予測を行うRTRLと階 層型ニューラルネットワークで主にパターン識別・分類を行うCPと,このネットに出力 判定機能を追加したVCP,このネットワークにSOFMを組み込んだSOFMCRSOFMVCP の動作特性の比較検討を行う。さらにこれらに重み修正法のQPを組み込んだQPSOFMCP,

(9)

QSOFMVCPの比較検討を行う。

適用する問題は,時系列予測問題として広く知られているMackey-G1ass微分遅延方程 式によって生ずる,ランダム信号を実験データとして用いた。方程式は以下のようになる。

¥-M)+@両ニトトァニニア

この式(28)の設定値をα=0.2,6=0.1,『=17として訓練データおよびテストデータを 発生させた。本実験では,各々のネットワークが過去から現在までの時系列データW-α)

を用いて,未来の予測データ妬(/+β)を求め,その予測精度を比較検討する。

9.実験結果

本研究では,時系列予測問題を用いて,RTRL,CP,VCP,SOFMCBSOFMVCP,

QPCBQPVCP,QPSOFMCP,QPSOFMVCPの予測精度の比較検討を行った。本実験 では,ネットワークの性能評価として平均2乗誤差,学習時間,予測時間を用いた。

グラフ1~5は,各々のネットワークが0~500時間の時系列予測を行った推移を示す。

表1は,各々の時系列予測の平均2乗誤差,平均予測時間,学習時間を示す。

10.考察

グラフより,RTRLの予測波形が緩やかなのに対して,CPなど他の波形は上下の変動 が大きいことが分かった。これは,時系列データを予測する場合に,RTRLは予測する直 前のデータを用いるのに対して,CPなど他のネットワークは予め用意されたデータを基に 学習し,予測を行う。このため波形のパターンが似通っている場合に他のものと認識して 予測にずれが生じる場合がある。

表1より,CPなどの階層型ニューラルネットワークは,リカレントニューラルネットワー クである時系列予測に適したRTRLより,予測時間において精度がよい。これは,毎回 重み修正をしてデータを予測するRTRLに比べ,他のネットワークは学習により,予め 予測の前段階で重みの修正を行い時系列予測のネットワークを形成しているため,学習後 に重みの修正をする必要がないからである。

CBQPCPは,RTRLより平均2乗誤差が大きい。しかし,ビジランスユニット(VU)

を用いることで出力判定機能を加えたVCPやその拡張版ネットワークは,いずれもその 他のネットワークより予測精度がよい。これは,重み修正精度が悪いとVUが判定した場 合には,非競合ユニットを用いて理想値の重み修正を行うためである。

SOFMを使用していないネットワークは,競合学習ネットワークを用いて,1回の学習 で1つのユニットに結合している重みのみを修正する。この従来の学習則に比べ,SOFM 学習法は,近傍を用いることですべての重みを効率よく修正することによって,より良い

(10)

-テストデーター---SOFMCP………SOFMVCP

-テストデーター---CP………VCP

8642000。早-卜廟際

88420000oい-トー鰯咋

iMlMWiji

0100200300400

時間

グラフ1CPとVCPの予狽I波形

500 0100200300400500 時間

グラフ2SOFMCPとSOFMVCPの予狽I波形

-テストデーター---0F℃P……・…・…・OR/CP -テストデーター---QPSOFMCP・…・……・…OPSOFMVCP

BB4200000砿l卜震卜 86420●■●●0000甲I卜蕊冷

獣Wii

0100200300400500 時間

グラフ3QPCPとQPVCPの予澗I波形

0100200300400500 時間

グラフ4QPSOFMCPとQPSOFMVCPの予狽I波形

表1各ネットワークの予測結果

-テストデータ………RTRL

平均2乗誤 平均予測時間 学習時間 6.68 2.27 23.35 16.24 7.07 3.81 20.93 20.04

86420000oい-卜麗昨 0.0097 0.015Cp

VCp

sofmcp sofmvcp

qpcp qpvcp

qpsofmcp qpsofmvcp rtrl

0.0053 0.0086

0.006 0.022

0.0046 0022

0.0076 0.0092 0100200300400 500

時田

グラフ5RTRLの予洞I波形 0004 0.0014

0.0038 0.019

0.0031 0.011

0.0062 0.028

予測精度が得られる。

QPを用いているネットワークは,学習の重みの修正段階でニュートン法を基にした2次 法(secondorder)であるQPを使用しており,求める重み値への修正がより速く行われ

るため,予測精度が高くなる。

11.まとめ

本研究では,時系列予測問題を用いてリカレントニューラルネットワークのRTRL,階 層型ニューラルネットワークのCBVCPとこれらの拡張したネットワークによるニュー

00

,0

蝋」Ibl iMh鐸 霞!醜'織

1M鵜

11’1. l■J■pH

}澱WL獺

b」

li ザ 1V

iii

DOD□

ム 謙鍔

「11A 識匙

糺衞1A鋤碁

&IJF ピピ

|【

;1 '11 i,,11

I賎

Ⅲ』之‐-

lii!

iif

li

'V iiiiI \ ?

QuBG

! 銀 1hm

1A偽

'111m

鍋 磯ibi1m鍔

\

F1

|r;囑1 門

|w(

「Wil

'7

『M{ |I

M(

「NIiM

ロ0■t

i銭 A凡!

蝦 蝋ノリM蝋’1M識 灘孵!’Wj1

rVlハ卿

WlV¥ #

Wi

。■■白

AL

DIB

八m八八JMノ

<ハ

U、.

側 I1liハ 『V

ハ 1VI V(lvlWv

■b■ロ

(11)

ラルネットワークの動作特性を比較検討した。

CPなどの階層型ニューラルネットワークは拡張することによって,予測精度や予測時間 のいずれらかの成果が得られていることがわかった。

今回扱ったネットワークを比較すると,CPよりVCRVCPよりSOFMVCP,SOFMVCP よりQPSOFMVCPが,より予測精度が高いことが分かった。これは,出力判定を行うビ ジランスユニット(VU)の追加,自己組織化特徴地図(SOFM)の組み込み,クイックプ ロップ(QP)を組み込んだ方がより良い予測精度が得られたことがいえる。また,これら を複数個組み合わせることで更に精度が上がることがいえる。

特に,これらの方式を最も多く取り入れているQPSOFMVCPは,時系列予測ネットワー クであるRTRLより,予測精度,予測時間のいずれにおいても非常に精度が良いので,

時系列予測問題において大変優れたネットワークであることがいえる。

参考文献

1)SathyanarayanSRao,ViswanathRamamurti:Ahybridtechniquetoenhancetheperformance ofrecurrentneuralnetworksfortimeseriesprediction,Neuralnetwarkstheory,technology,and

applications,IEEE,1996.

2)ScottE,Fahlmann:Faster-LearningVariationsOnBack-Propagation:AnStudy,Procebdingof thel988ConnectionistModelsSummerSchool,pp38-51,1988.

3)J、Moody,andC、JDarken:FastLearninginNetworksofLocally-TunedProcessingUnit,

NeuralComputation,voL1,pp281-294,1989.

4)松岡清利:ニユーロコンピューティング基礎と応用,朝倉書店,1992.

5)R・ビール,Tジャクソン:ニューラルコンピューティング入門,海文堂出版,1993.

(12)

TheTimeSeriesPrediction

byRealTimeRecurrentLearningAlgorithm

HidekiFuRuHAsHIandHiroyukiNARIHISA*

Qzzcノノィ(z蛇Schooノq/BZgf"Ce""g

*ルクαγオ"z〃q/I>q/bフヴリサ、'伽aMcb”"たγE,zgj"eemzg Rz〃tyq/Eソzgj"Ceが増

OAzZyzz腕α肋jzノe'4s/llyq/Sと伽Ce,

Rjdtzノーch0I-I,OAzZ)w,zamO-0005)ん,α〃

(ReceivedOctober5,1998)

SinceMcCullochahdPittsproposedartificialneuralnetworkinl943,alotofneural networkresearches,artificialneuralnetworkisrecognizedasanapproximation functionwhichmapsainputdatasettoaoutputdataset、Therefore,wecanexpect thatfromgivenpasttimeseriesdataweconstructadesirablefuturetimeseriesby usingneuralnetwork・Thisisthepredictionofneuralnetwork

lnthispaper,wepresentacharacteristicoftheOperationofRealTimeRecurrent Learning(RTRL)whichisoneofthemorepopularnetworksusedfortimeseries prediction.Moreover,wecomparethisRTRLpredictionwithotherpredictionproce dures・Consequently,QPSOFMVCP(QuickPropSelf-OrganizationfeatureMapVigi‐

lantCounterPropagation)Methodismostpowerfulpredictionprocedure.

Referensi

Dokumen terkait

する研究 八畑謙介 生命環境系生物学域 講師 動物系統分類学/節足動物多足類の系統分類と進化 遠藤優介 人間系教育学域 助教 理科教育学/理科教育目的論、ドイツ科学教育論 藤田健志 数理物質系化学域 助教 有機合成化学、フッ素化学/有機金属触媒 山本容子 人間系教育学域 助教 理科教育学/生物教育、環境教育論 横井智之 生命環境系生物学域

熊本大学 数理科学総合教育センター 行列の基本変形と階段行列 演習問題2 解答例 問題 1... 熊本大学 数理科学総合教育センター 補足 2つの定理を復習しておく. 定理

岡山理科大学紀要第47号Bppll-212011) フイヒテ『学者の使命』(1794年)における人闘像 中島聰。村下邦昭* 岡山理科大学総合情報学部社会情報学科 *岡山理科大学非常勤講師 2011年9月29日受付、2011年11月7日受印) 1はじめに フイヒテは1794年、イエーナで知識学の講義と共に「学者の使命に関する数回の講義」(以下『学者」と

科学・工作ボランティア入門におけるオンライン授業の実践 -Zoom によるグループワークとオンライン発表の実施- 高原 周一・山口 一裕*・滝澤 昇**・米田 稔***・重松 利信 糸山 嘉彦****・春日 二郎****・森田 明義****・武田 芳紀**** 高見 寿**** 岡山理科大学教育推進機構基盤教育センター

透析監視装置に用いる化学発光式尿素センサ 松崎浩二.岡林徹*、尾崎真啓**、中川益生*** 岡山理科大学大学院理学研究科修士課程応用物理専攻 *岡山理科大学大学院工学研究科博士課程システム科学専攻(修了生) **角田医院臨床工学部 ***岡山理科大学理学部応用物理学科 (2005年9月30日受付、2005年11月7日受理) 1.はじめに

[ 時間割名 ] [授業科目名] [時間割担当] [ 単 位 数 ] [ 実 施 期 ] [曜日・時限] [ 対象学生 ] 心理学B147020 Psychology B 心理学B2016X023 福本和哉 後期 2 選択 月・4 工学部機械2期 工学部総合機械2期 工学部電気電子2期 工学部建築2期 情報学部情 報SY2期 情報学部情報DZ2期

岡山理科大学紀要第37号Appl71-l782001) DO制御下での活性汚泥の有機物および窒素除去 岸本民也*.長尾_孝** *岡山理科大学理学部生物化学科 **岡山理科大学自然科学研究所 (2001年11月1日受理) 1.緒甘 活性汚泥法における排水処理の初期の目的は、有機物 を酸化分解し排水中のBOD(生物化学的酸素要求量)を

1 岡山理科大学 古生物学・年代学研究センターについて 1.設立の経緯と古生物学・年代学研究センターの構想 岡山理科大学では、1980年代に蒜山研究所に先駆的なK-Ar年代測定システムが稼働して以来、年代測定を 行うことができる研究機関として、日本の地球科学および惑星科学の重要な研究拠点の地位を保ってきた。