810 likes | 1.01k Views
画像処理技術による ダブルハイパー核の研究. 京都大学大学院理学研究科 物理第 2 教室原子核ハドロン研究室常見俊直(つねみとしなお). 1.導入: 元素と原子核 2.人の脳の画像処理 3.ダブルハイパー核用の 人工ニューラルネットワーク(一時期利用してたので、紹介) 4. 7 段階の画像処理(最新) 5.まとめ. 周期表. Wikipedia より. 元素の存在比率(太陽系). Geochimica et Cosmochimica Acta Vol.53 pp.197-214 EDWARD ANDERS NICOLAS GREVESSE より. H. He.
E N D
画像処理技術によるダブルハイパー核の研究 京都大学大学院理学研究科 物理第2教室原子核ハドロン研究室常見俊直(つねみとしなお) 1.導入: 元素と原子核 2.人の脳の画像処理 3.ダブルハイパー核用の 人工ニューラルネットワーク(一時期利用してたので、紹介) 4.7段階の画像処理(最新) 5.まとめ
周期表 Wikipediaより
元素の存在比率(太陽系) Geochimica et Cosmochimica Acta Vol.53 pp.197-214EDWARDANDERSNICOLASGREVESSEより H He O C Ne N F Li B 原子番号 Be 原子番号14のSiを106としたとき
人に必須な元素 「人類の住む宇宙」より
人に必須な元素 「人類の住む宇宙」より
ビタミンB12 Wikipediaより サンコバ点眼液 シアノコバラミン のCNをOHにおきかえるとヒドロキソコバラミン ビタミンB12は、体重70kgの人に1.5mgしか存在しない。 けれど、ゼロになると人は生きられない。 複雑なシステム(この場合はヒト)の場合には、 少量の特殊な物質が意味をもつことがある。
周期表 Wikipediaより
陽子と中性子 1)原子番号:陽子の数 2)原子核には中性子も存在する。 クォークでいうと、アップクォークとダウンクォーク 3)陽子も中性子もバリオン(クォーク3つ)の仲間
動機 より多くのダブルハイパー核を見つける クォーク バリオン 核子とハイペロン 原子核とダブルハイパー核 S=-2の新しい原子核をみつける (ストレンジネス)
ダブルハイパー核を調べたいわけ • 原子核は、陽子と中性子からなる。 • 陽子と中性子の間に働く力(核力)を調べたい。 • けれども、陽子や中性子を使うと難しい。 なぜなら、「パウリの排他律」が効いてしまい、 核力よりも排他律の効果をみてしまう。 新しい量ストレンジネスを導入する。 陽子と中性子の塊に、ハイペロンをいれると、大きな変化があるかも
There are more events NAGARA event 1) Online trigger efficiency 2) Other decay channel (neutral particle) A couple of dozen double hypernuclear events in the emulsions of KEK-E373 If we can establish a general scan, we can find a couple of dozen double hypernuclear events.
原子核乾板 25cm×25cm 元素イメージ: 一家に一枚周期表より
New microscope CCD 0.5M pixels Shutter 100 Hz LED light Depth of field 5mm
目指すところ 赤い線は常見が引いたもの
画像処理(パターン認識)の産業利用 • デジタルカメラの顔認識(笑顔認識も) • クルマの自動駐車機能 • スキーヤー同士の衝突検知 • 手書き文字認識 • 指紋認識 • バーコード、ケータイのQRコード エマルジョン自動処理も いまの技術力ならできる
眼球の仕組み 遠くをみるとき 近くをみるとき Picture is cited from
Human brain Picture is cited from
Human brain ■is related to the first stage of visual sense Picture is cited from
パターンマッチ この形はなに? 1番目の性質 茂木健一郎 著 「ひらめき脳」より
地中海の形 1番目の性質 色の濃度にとらわれる 茂木健一郎 著 「ひらめき脳」より
人が直列処理をするパターンマッチ 2番目の性質 同時に2つを認識できない Mind hackより
3番目の性質 • 1枚の大きな写真を脳に送っているのではなく小領域の情報を脳で統合している。
ヘビの孔器 パリティー2007年3月号
ヘビの孔器をシミュレート 孔器で捉えているであろう理想的な画像 元の画像 パリティー2007年3月号
ニューラルネットによるバーチャルレンズ 0.25% 1% 元画像 5% 2% パリティー2007年3月号
General scan 小領域での画像処) 画像全体を一度にみる テンプレートマッチ Neural network Hough 変換 Hough 変換 文字認識など
小領域での画像認識 直線でなくて線分を認識したい 小領域(いままでの例だと32px*32px)の領域。 全体は、512*440。 1)テンプレートマッチ 2)ニューラルネット
Recognize a line • There is a vertex in a double hyper or single hypernuclear event Recognize a line Reconstruct a vertex Identify a double hypernuclei NAGARAイベント
人工ニューラルネット(ANN)の種類 福岡大学 鶴田直之 千葉大学 井宮 淳 による分類
ニューロン(ANN構成要素) Picture is cited from
単層パーセプトロン y=f(net) ニューラルネットの出力 重みつき総和 net=w1x1+w2x2-θ 出力y=f(net) f(net) (発火、興奮) 1 重みw2 重みw1 0 0 net(入力の重みつき総和) 入力x2 入力x1
ニューラルネットによる記憶 ANDの真理表 入力 出力 A B 1 1 1 1 0 0 0 1 0 0 0 0 「入力A」と「入力B」から「出力」を得る
ニューラルネットによる記憶 ORの真理表 入力 出力 A B 1 1 1 1 0 1 0 1 1 0 0 0 「入力A」と「入力B」から「出力」を得る
入力 出力 A B 1 1 1 1 0 0 0 1 0 重みw1=0.8 重みw2=1.2 0 0 0 出力y=f(net) 出力y=f(net) f(net) (発火、興奮) 1 重みw2 重み1.2 重みw1 重み0.8 0 0 net(入力の重みつき総和) 入力x2 入力x2 入力x1 入力x1 ANDの場合 y=f(net) net=w1x1+w2x2-θ θ=1.3とする net=0.8x1+1.2x2-1.3 入力 出力 x1 x2 net 1 1 1 0.7 0 1 0 -0.5 0 0 1 -0.1 0 0 0 -1.3
入力 出力 A B 1 1 1 1 0 1 0 1 1 重みw1=1.8 重みw2=1.5 0 0 0 出力y=f(net) 出力y=f(net) f(net) (発火、興奮) 1 重みw2 重み1.5 重みw1 重み1.8 0 0 net(入力の重みつき総和) 入力x2 入力x2 入力x1 入力x1 ORの場合 y=f(net) net=w1x1+w2x2-θ θ=1.3とする net=1.8x1+1.5x2-1.3 入力 出力 x1 x2 net 1 1 1 2.0 1 1 0 1.8 1 0 1 1.5 0 0 0 -1.3
図で考える ANDの場合 興奮:1 x2 沈静:0 1 x1 0 1
x2 興奮:1 沈静:0 1 x1 0 1 図で考える ANDの場合 直線(赤色で示す)によって、黒丸の領域と白丸の領域を分離可能
興奮:1 沈静:0 図で考える ORの場合 x2 1 x1 0 1 直線(赤色で示す)によって、黒丸の領域と白丸の領域を分離可能
ニューラルネットによる記憶 XORを覚える 入力 出力 A B 1 1 0 1 0 1 0 1 1 0 0 0 「入力A」と「入力B」から「出力」を得る
x2 XOR真理表 興奮:1 入力 沈静:0 出力 A B 1 1 1 0 1 0 1 0 1 1 0 0 0 x1 0 1 図で考える XORの場合 黒丸の領域と白丸の領域を直線で分離することができない。 2層によるニューラルネットでは、XORを表現できないという問題がある。
XORは次元を増やすことが必要 次元増加に伴い、直線でなくて平面で区別
出力層 入力層 隠れ層 ニューラルネットのXOR問題 人工ニューラルネットの歴史 XORを表現することができないという問題があった。 3層の階層モデルとback propagationにより学習可能ということがわかった。 目標とする出力 入力1 入力2 出力 • 1 0 • 1 0 1 • 0 1 1 • 0 0 0
ニューラルネット シナプスの「興奮」と「沈静」を表す シグモイド関数 0.5 あと出てくるのでXについて微分すると a
出力層 入力層 隠れ層 学習方法(back propagation) H1 I1 Out H2 I2 Outi = f(b1f(H1)+b2f(H2)) = f(b1f(a1f(I1)+a2f(I2))+b2f(a3f(I1)+a4f(I2))) 教師信号をTiで表すと、教師信号とOutの差Lは、
最急降下法 ここまできたらあとはお決まりの方法 下記の関数を最小化するaiとbiをもとめるという問題 Outi = f(b1f(H1)+b2f(H2)) = f(b1f(a1f(I1)+a2f(I2))+b2f(a3f(I1)+a4f(I2))) X αは学習率。正の定数
微分もすでにわかっている Outi = f(b1f(H1)+b2f(H2)) = f(b1f(a1f(I1)+a2f(I2))+b2f(a3f(I1)+a4f(I2))) としているので、 も同様に計算できる。
Photo from CCD of the microscope 440 pixel 512 pixel How our brain works?