PowerPoint プレゼンテーション

Size: px
Start display at page:

Download "PowerPoint プレゼンテーション"

Transcription

1 Chinese Zero Pronoun Resolution with Deep Neural Networks Chen Chen and Vincent Ng 紹介する人 : 萩行正嗣 ( ウェザーニューズ )

2 Anaphoric Zero Pronoun Resolution の用語 Zero pronoun (ZP): ゼロ代名詞 省略された代名詞 ( ここでは ) 現実世界の何らかの Entity を指すものと定義 Anaphoric zero pronoun (AZP): 照応性のあるゼロ代名詞 文中に指す先 ( 先行詞 ) のあるゼロ代名詞 Antecedent: 先行詞 ( ゼロ ) 代名詞が指す 文中の表現 (mention) # referent といった場合 表現でなく 指す実体を意味することもある 先行詞 照応 (refer) ゼロ代名詞 [ 俄罗斯 ] 作为米洛舍夫维奇一贯的支持者,*pro* 曾经提出调停这场政治危机 ([Russia] is a consistent supporter of Milošević, *pro* has proposed to mediate the political crisis.) 実際の文では *pro* の部分は何もない

3 AZP Resolution のサブタスク AZP identification 文中から AZP を探す 2step になっている Extracting candidate ZPs (ZP detection): ルールベース (VP の前を集めてくる ) Anaphoricity determination: AZP かそれ以外かを SVM などで二値分類 正解の構文木で F-score:0.601 システムで 0.361( 本論文 appendix より ) 以降の Chen & Ng の研究はこの手法を使っている [Chen & Ng 13] の時より数字がよくなっている AZP Resolution AZP の antecedent を先行詞から選ぶ ZP は情報を持たないので 単複 性別などの手掛りがなく難しい 先行詞候補は ZP の 2 文以内にある NP 全て ( 英語の照応解析の場合 先行詞候補の範囲を決めるなどのタスクもある )

4 先行研究 Supervised learning: [Zhao & Ng 07]: 照応解析の Mention pair モデルをゼロに適用 [Kong & Zhou 10]: Tree-kernel で ZP detection Anaphoricity determination AZP resolution の 3 タスク全てをやった [Chen & Ng 13]: [Zhao & Ng 07] の素性を増やした + 既に解いた AZP の情報 Unsupervised learning: [Chen & Ng 14b]: 照応解析を教師なしの EM で回した結果をゼロに適用 [Chen & Ng 15]: ゼロ照応解析だけの教師なし EM Gold AZP Gold parse tree System AZP Gold parse tree System AZP System parse tree 教師あり [Zhao & Ng 07] [Kong & Zhou 10] [Chen & Ng 13] 教師なし 提案手法 [Chen & Ng 14b] [Chen & Ng 15] [Chen & Ng 16]

5 提案手法のポイント 先行研究 Feature engineering( というか生成モデル ) の設計が大変 素性の独立性がないと悪影響 [Chen & Ng 14b][Chen & Ng 15] では Lexical な素性を使っていない 教師あり [Zhao & Ng 07][Chen & Ng 13] では Lexical feature が有効 尤度を最大化してるけど F 値などの評価尺度と関連してるか分からない 提案手法 Deep leaning AZP resolution の複雑な関係 (hidden) を表現できる Lexical な情報をいい感じに扱える Ranking-base の教師あり学習 従来の教師あり AZP resolver は classification-based 素性ベースの手法 Lexical な素性 ( 教師なしで学習 ) と手作りの素性を両方使える

6 提案手法 ( ネットワーク構成 ) 類似度が高いものを先行詞として選ぶ ゼロ代名詞 先行詞候補

7 学習事例の作成 学習の効率化のため各 AZP に対して 先行詞候補を 4 つに絞る 1 つは正しい先行詞 残りの 3 つは先行詞候補のうち salience が高いもの Salience の計算は g m = 4, role m = SUBJECTIBE 2, role m = OBJECTIBE 1, role m = OTEHRS decay m = 0.5 dis_sentence(m,z)

8 Embedding Features Word2vec を固定で使う OntoNotes 5.0 で学習 100 次元 x e z : AZP の embedding 素性 2 つのベクトルを結合する AZP の直前の単語のベクトル AZP を項に持つ動詞のベクトル x e c i : 先行詞候補の embedding 素性 c i の主辞のベクトルをそのまま使う

9 Hand-Crafted Features AZP と先行詞候補の統語的関係を表現 x h z : AZP に関連する素性 Syntactic features: 13 種類例えば z が IP 節の最初の gap か? z の次の語が NP または VP 中の動詞か? Other features: 6 種類例えば z は文の最初の gap か? z の文法役割 (SUBJECT, OBJECT, OTHERS) x h c i : 先行詞候補に関連する素性 Syntactic features: 12 種類例えば c は副詞的名詞句 時相名詞句 代名詞または NE か? Distance features: 4 種類例えば c と z の間の文数 Other features: 2 種類例えば c はテキストの headline に含まれるか? 両方 50 次元なのは 最後に 0 を埋めているだけ

10 Inference Salience score が高い 4 つの先行詞候補のうち P(c i z, Λ) ( cos 類似度 ) が高いものを先行詞として選ぶ 選ばれた 4 つに正しい先行詞がある保証はない AZP と ( 正しい ) 先行詞が離れ過ぎていることがあるゼロで出現が続く場合など [Chen and Ng 13] AZP resolution は文頭から順番に実行 AZP の部分 (gap) に選択された先行詞を埋めて 以降の解析ではそこに先行詞があるものとして扱う もとの先行詞より近い位置にあるとみなせる

11 実験設定 CoNLL OntoNotes 5.0: 6 ジャンルのテキスト Broadcast News, Newswire, Broadcast Conversation, Telephone Conversation, Web Blog, Magazine Hyperparameter: Training の 20% を使って調整 Baseline: [Chen & Ng 15] ( 教師なし AZP resolution) 3 つの設定で比較 正解のAZP + 正解の構文木 システムのAZP+ 正解の構文木 システムのAZP+ システムの構文木

12 実験結果

13 実験結果分析 [ 陈水扁 ] 在登机前发表简短谈话时表示,[ 台湾 ] 要站起来走出去... *pro* 也希望此行能把国际友谊带回来 Baseline が [ 台湾 ] を選択した理由 [ 台湾 ] が Salience が最も高く AZP にも近い 提案手法が [ 陈水扁 ] を選択した理由 学習データ中に 人名が 希望 の項の AZP の先行詞となった例が多数 [ 陈水扁 ] と上記の人名の embedding が似ていた 学習データ中には 希望 の項の AZP の先行詞としては [ 陈水扁 ] は出ていなかった [ 我 ] 前一会精神上太紧张...*pro* 现在比较平静了 [I] was too nervous a while ago.... *pro* am now calmer. 提案手法では lexical な情報は AZP の前の単語と AZP を項に取る単語 先行詞候補の単語の embedding のみ 節の sentence embedding などが有効かもしれない Baseline 提案手法

14 まとめと感想 まとめ Deep learning ベースの手法で中国語のゼロ照応解析に取り組んだ Lexical な素性 (embedding) と Syntactic な素性を組み合わせた State-of-the-art を上回った (F 値 ) 感想 Hand-crafted feature だけでも 従来の機械学習ベースを上回ってる! DL 部分に Syntactic な構造が入ればもっと良くなりそう Embedding は先行詞候補側も用言の情報を使うとよさそう ゼロ代名詞の前の単語の Embedding は効いているのだろうか Training と Inference でモデルが違う ( 先に解いたゼロ代名詞の扱い ) のが気になる 先行詞候補の Salience による絞り込みがかなり heuristic なので その精度が知りたい AZP の判定が問題の対象外になっているが 分けて解くのがいいのか?

(NICT) ( ) ( ) (NEC) ( )

(NICT) ( ) ( ) (NEC) ( ) (NICT) ( ) () (NEC) ( ) ! Paraphrase (Paraphrasing) l l ! l h"p://paraphrasing.org/bib- cat.html l 12 50 l 640 (2014 6)! l l l l l l ! [ ] 2! [ ] ( )! :............ 1 2 1 = 2 = ! [ ]! [ ]! :............

More information

nlp1-05.key

nlp1-05.key 実用的な構文解析 自然言語処理論 I 今までの例に挙げた文法は非常に単純 実用的な文法 いろいろな文に対応しなければならない それだけ規則の数も増える 5. 文法 3( 素性構造と ) 規則を効率的に管理する必要がある 1 2 一致の例 英語における一致 (agreement) 数 ( 単数形, 複数形 ) 人称 (1 人称,2 人称,3 人称 ) 名詞句の例 a desk the desks a

More information

(Microsoft PowerPoint - \203|\203X\203^\201[\224\255\225\\\227p\216\221\227\ ppt)

(Microsoft PowerPoint - \203|\203X\203^\201[\224\255\225\\\227p\216\221\227\ ppt) Web ページタイプによるクラスタリングを用いた検索支援システム 折原大内海彰電気通信大学システム工学専攻 はじめに 背景 文書クラスタリングを用いた検索支援システム Clusty(http://clusty.jp/) KartOO(http://www.kartoo.com/) Carrot(http://www.carrot-search.com/) これらはすべてトピックによる分類を行っている

More information

Poincaré Embedding による 分散表現の獲得 M1 橋本隼人 森信介 京都大学情報学研究科 / 学術情報メディアセンター森研究室 1

Poincaré Embedding による 分散表現の獲得 M1 橋本隼人 森信介 京都大学情報学研究科 / 学術情報メディアセンター森研究室 1 Poincaré Embedding による 分散表現の獲得 M1 橋本隼人 森信介 京都大学情報学研究科 / 学術情報メディアセンター森研究室 1 おしらせ 予稿集から変更 ネガティブサンプリングの式 追加実験 ご意見等は予稿のアドレスかこちらへ http://www.ar.media.kyoto-u.ac.jp/ 京都大学森研究室自然言語処理

More information

数理言語

数理言語 人工知能特論 II 第 5 回二宮崇 1 今日の講義の予定 CCG (COMBINATORY CATEGORIAL GRAMMAR) 組合せ範疇文法 2 講義内容 前回までの内容 pure CCG Bluebird 今回の内容 Thrush Starling 擬似的曖昧性 CCG のすごいところ 3 前回説明したCCG ``pure categorial grammar 関数適用規則 (functional

More information

15群(○○○)-8編

15群(○○○)-8編 3 群 ( コンピュータ - ソフトウェア )- 3 編ネットワーク層 4 章 BGP(Border Gateway Protocol) ( 執筆者 : 永見健一 )[2009 年 12 月受領 ] 電子情報通信学会 知識ベース 電子情報通信学会 2017 1/(8) 3 群 3 編 - 4 章 4-1 BGP の概要 インターネットで使われている経路制御プロトコルは,EGP(Exterior Gateway

More information

nlp1-12.key

nlp1-12.key 自然言語処理論 I 12. テキスト処理 ( 文字列照合と検索 ) 情報検索 information retrieval (IR) 広義の情報検索 情報源からユーザの持つ問題 ( 情報要求 ) を解決できる情報を見つけ出すこと 狭義の情報検索 文書集合の中から ユーザの検索質問に適合する文書を見つけ出すこと 適合文書 : 検索質問の答えが書いてある文書 テキスト検索 (text retrieval)

More information

1. はじめに 2

1. はじめに 2 点予測と能動学習を用いた効率的なコーパス構築 形態素解析における実証実験 京都大学情報学研究科 Graham NEUBIG 1 1. はじめに 2 形態素解析 べた書きの文字列を意味のある単位に分割し 様々な情報を付与 品詞 基本形 読み 発音等を推定 農産物価格安定法を施行した 価格 / 名詞 / 価格 / かかく / かかく安定 / 名詞 / 安定 / あんてい / あんてー法 / 接尾辞 /

More information

スライド 1

スライド 1 NTT Information Sharing Platform Laboratories NTT 情報流通プラットフォーム研究所 セマンティック Web 技術を用いた社内情報の連携 森田大翼 飯塚京士 ( 日本電信電話株式会社 NTT 情報流通プラットフォーム研究所 ) セマンティック Web コンファレンス 2012 2012 年 3 月 8 日 ( 木 ) 2012 NTT Information

More information

Microsoft PowerPoint - ●SWIM_ _INET掲載用.pptx

Microsoft PowerPoint - ●SWIM_ _INET掲載用.pptx シーケンスに基づく検索モデルの検索精度について 東京工芸大学工学部コンピュータ応用学科宇田川佳久 (1/3) (2/3) 要員数 情報システム開発のイメージソースコード検索機能 他人が作ったプログラムを保守する必要がある 実務面での応用 1 バグあるいは脆弱なコードを探す ( 品質の高いシステムを開発する ) 2 プログラム理解を支援する ( 第 3 者が書いたコードを保守する ) 要件定義外部設計内部設計

More information

平成 30 年度シラバス 3 学年前期 (1 単位 ) コミュニケーション英語 Ⅰ 教科書 ENGLISH NOW Ⅰ 開隆堂 授業時数 01 単元名 Lesson 6 Sempai and Ko hai 本時 Lesson 6 (1) 学習内容備考 常日頃から使っている 先輩 後輩 ということばを

平成 30 年度シラバス 3 学年前期 (1 単位 ) コミュニケーション英語 Ⅰ 教科書 ENGLISH NOW Ⅰ 開隆堂 授業時数 01 単元名 Lesson 6 Sempai and Ko hai 本時 Lesson 6 (1) 学習内容備考 常日頃から使っている 先輩 後輩 ということばを 平成 30 年度シラバス 3 年前期 (1 単位 ) コミュニケーション英語 Ⅰ 教科書 ENGLISH NOW Ⅰ 開隆堂 授業時数 01 単元名 Lesson 6 Sempai and Ko hai 本時 Lesson 6 (1) 常日頃から使っている 先輩 後輩 ということばを題材として 日本と英語圏の文化の違いについて考える 1. 単語 連語の練 意味確認 Textbook p.60-67

More information

nlp1-04a.key

nlp1-04a.key 自然言語処理論 I. 文法 ( 構文解析 ) その 構文解析 sytctic lysis, prsig 文の構文的な構造を決定すること句構造文法が使われることが多い文法による構文木は一般に複数ある 構文木の違い = 解釈の違い 構文解析の目的 句構造文法の規則を使って, 文を生成できる構文木を全て見つけだすこと 文法が入力文を生成できるかどうかを調べるだけではない pro I 構文解析とは 構文木の違い

More information

DEIM Forum 2010 A Web Abstract Classification Method for Revie

DEIM Forum 2010 A Web Abstract Classification Method for Revie DEIM Forum 2010 A2-2 305 8550 1 2 305 8550 1 2 E-mail: s0813158@u.tsukuba.ac.jp, satoh@slis.tsukuba.ac.jp Web Abstract Classification Method for Reviews using Degree of Mentioning each Viewpoint Tomoya

More information

自然言語は曖昧性だらけ! I saw a girl with a telescope 構文解析 ( パージング ) は構造的な曖昧性を解消 2

自然言語は曖昧性だらけ! I saw a girl with a telescope 構文解析 ( パージング ) は構造的な曖昧性を解消 2 自然言語処理プログラミング勉強会 12 係り受け解析 Graham Neubig 奈良先端科学技術大学院大学 (NAIST) 1 自然言語は曖昧性だらけ! I saw a girl with a telescope 構文解析 ( パージング ) は構造的な曖昧性を解消 2 構文解析の種類 係り受け解析 : 単語と単語のつながりを重視 I saw a girl with a telescope 句構造解析

More information

no

no 12 2004.9.3. no.234 2004.9.3. no.234 13 14 2004.9.3. no.234 2004.9.3. no.234 15 16 2004.9.3. no.234 2004.9.3. no.234 17 18 2004.9.3. no.234 19 2004.9.3. no.234 20 2004.9.3. no.234 21 2004.9.3. no.234 22

More information

音響モデル triphone 入力音声 音声分析 デコーダ 言語モデル N-gram bigram HMM の状態確率として利用 出力層 triphone: 3003 ノード リスコア trigram 隠れ層 2048 ノード X7 層 1 Structure of recognition syst

音響モデル triphone 入力音声 音声分析 デコーダ 言語モデル N-gram bigram HMM の状態確率として利用 出力層 triphone: 3003 ノード リスコア trigram 隠れ層 2048 ノード X7 層 1 Structure of recognition syst 1,a) 1 1 1 deep neural netowrk(dnn) (HMM) () GMM-HMM 2 3 (CSJ) 1. DNN [6]. GPGPU HMM DNN HMM () [7]. [8] [1][2][3] GMM-HMM Gaussian mixture HMM(GMM- HMM) MAP MLLR [4] [3] DNN 1 1 triphone bigram [5]. 2

More information

..,,,, , ( ) 3.,., 3.,., 500, 233.,, 3,,.,, i

..,,,, , ( ) 3.,., 3.,., 500, 233.,, 3,,.,, i 25 Feature Selection for Prediction of Stock Price Time Series 1140357 2014 2 28 ..,,,,. 2013 1 1 12 31, ( ) 3.,., 3.,., 500, 233.,, 3,,.,, i Abstract Feature Selection for Prediction of Stock Price Time

More information

0210研究会

0210研究会 複数のソーシャルメディアのレビューを 用いた商品比較基盤技術の提案 甲南大学大学院自然科学研究科服部祐基 甲南大学知能情報学部灘本明代 背景 ソーシャルメディアを用いて情報を取得する行為が多くなっている 商品の購入 商品認知の情報源 購入のきっかけとなった情報源 として 約 40% ものインターネットユーザがソーシャルメディアを活用している 1),2) ソーシャルメディアの書き込みを商品購入の際の参考にしているユーザが多く存在している

More information

(1) 2000 ( ) ( ) 1000 2000 1000 0 http://www.spacepark.city.koriyama.fukushima.jp/ http://www.miraikan.jst.go.jp/ http://www.nasda.go.jp/ 3000 1 1 http://www.city.nara.nara.jp/citizen/jyugsidu/jgy/jsj/

More information

Microsoft PowerPoint - 08LR-conflicts.ppt [互換モード]

Microsoft PowerPoint - 08LR-conflicts.ppt [互換モード] 属性文法 コンパイラ理論 8 LR 構文解析補足 : 属性文法と conflicts 櫻井彰人 Racc (Yacc 系のcc) は属性文法的 非終端記号は 値 (semantic value) を持つ パーザーは パーザースタックをreduceするとき ( 使う規則を X ::= s とする ) s に付随する semantic value (Racc では配列 valueにある ) を用いて action

More information

IPSJ SIG Technical Report Vol.2015-SE-187 No /3/12 1,a) 1,b) Mozilla Firefox Eclipse Platform GNU Gcc % 43% 1. [1] Eclipse Mozilla 4 [3

IPSJ SIG Technical Report Vol.2015-SE-187 No /3/12 1,a) 1,b) Mozilla Firefox Eclipse Platform GNU Gcc % 43% 1. [1] Eclipse Mozilla 4 [3 1,a) 1,b) Mozilla Firefox Eclipse Platform GNU Gcc 2. 12 36% 43% 1. [1] Eclipse Mozilla 4 [3] [1, 3, 7] 1 Wakayama Uniersity a) s141015@sys.wakayama-u.ac.jp b) masao@sys.wakayama-u.ac.jp [6] 2. OSS [1,3,7]

More information

NLP プログラミング勉強会 5 HMM による品詞推定 自然言語処理プログラミング勉強会 5 隠れマルコフモデルによる品詞推定 Graham Neubig 奈良先端科学技術大学院大学 (NAIST) 1

NLP プログラミング勉強会 5 HMM による品詞推定 自然言語処理プログラミング勉強会 5 隠れマルコフモデルによる品詞推定 Graham Neubig 奈良先端科学技術大学院大学 (NAIST) 1 自然言語処理プログラミング勉強会 5 隠れマルコフモデルによる品詞推定 Graham Neubig 奈良先端科学技術大学院大学 (NAIST) 1 品詞推定 文 X が与えられた時の品詞列 Y を予測する Natural language processing ( NLP ) is a field of computer science JJ -LRB- -RRB- VBZ DT IN 予測をどうやって行うか

More information

自己紹介 名前 : 竹田卓也 年齢 : 20 歳 ( 大学生 ) 経歴 : 人工知能歴 1ヶ月プログラミング歴 5 年くらい 言語 : PythonとかJavaとかGoとか 趣味 : オンライン オフラインゲーム 2

自己紹介 名前 : 竹田卓也 年齢 : 20 歳 ( 大学生 ) 経歴 : 人工知能歴 1ヶ月プログラミング歴 5 年くらい 言語 : PythonとかJavaとかGoとか 趣味 : オンライン オフラインゲーム 2 リカレントニューラルネットワークの概要と動作原理 竹田卓也 後援 : ドワンゴ 1 自己紹介 名前 : 竹田卓也 年齢 : 20 歳 ( 大学生 ) 経歴 : 人工知能歴 1ヶ月プログラミング歴 5 年くらい 言語 : PythonとかJavaとかGoとか 趣味 : オンライン オフラインゲーム 2 アウトライン Feed forward neural network Recurrent neural

More information

Twitter Twitter [5] ANPI NLP 5 [6] Lee [7] Lee [8] Twitter Flickr FreeWiFi FreeWiFi Flickr FreeWiFi 2. 2 Mikolov [9] [10] word2vec word2vec word2vec k

Twitter Twitter [5] ANPI NLP 5 [6] Lee [7] Lee [8] Twitter Flickr FreeWiFi FreeWiFi Flickr FreeWiFi 2. 2 Mikolov [9] [10] word2vec word2vec word2vec k DEIM Forum 2018 H1-3 700-8530 3-1-1 E-mail: {nakagawa, niitsuma, ohta}@de.cs.okayama-u.ac.jp Twitter 3 Wikipedia Weblio Yahoo! Paragraph Vector NN NN 1. doc2vec SNS 9 [1] SNS [2] Twitter 1 4 4 Wikipedia

More information

Elémentaire Leçon4-4 (初級4-4)

Elémentaire Leçon4-4 (初級4-4) FRANTIÈRE オフィシャル教材 Elémentaire Leçon4-4 ( 初級 4-4) Qu est-ce que vous aimez? ( あなたの趣味は何ですか 4-4) L'objectif de cette leçon ( このレッスンの目的 ) 何? を表す 疑問代名詞 について学習します 単語学習では 趣味 ~アウトドア~ に関わる単語を学習します Partie 1 ~ La

More information

知能科学:ニューラルネットワーク

知能科学:ニューラルネットワーク 2 3 4 (Neural Network) (Deep Learning) (Deep Learning) ( x x = ax + b x x x ? x x x w σ b = σ(wx + b) x w b w b .2.8.6 σ(x) = + e x.4.2 -.2 - -5 5 x w x2 w2 σ x3 w3 b = σ(w x + w 2 x 2 + w 3 x 3 + b) x,

More information

知能科学:ニューラルネットワーク

知能科学:ニューラルネットワーク 2 3 4 (Neural Network) (Deep Learning) (Deep Learning) ( x x = ax + b x x x ? x x x w σ b = σ(wx + b) x w b w b .2.8.6 σ(x) = + e x.4.2 -.2 - -5 5 x w x2 w2 σ x3 w3 b = σ(w x + w 2 x 2 + w 3 x 3 + b) x,

More information

fmm151021完.pdf

fmm151021完.pdf 1 2 3 4 5 6 解決されない Web マーケターの悩み 3 1 1 2 3 2 Web 3 1 2 4 Q SNS SNS 4 SNS ❹ 最適化施策 集めた人をもっと効果的に転換させる サイトに集客するために必要なことは最適化です どんなものでも 作って終わりではなく最適化を進めていくことで期待通りの姿になります ただ 物事にセオリーはつきものです そのためのノウハウをお伝えしていきますので

More information

京都立石神井高等学校平成 31 年度教科 ( 外国語 ( 英語 ) ) 科目 ( 英語表現 Ⅱ ) 年間授業計 ( 標準 α) 教 科 : 外国語 ( 英語 ) 科目 : 英語表現 Ⅱ 単位数 : 2 単位 対象学年組 : 第 2 学年 A 組 ~G 組 教科担当者 :(A 組 : 岡本 松井 )(

京都立石神井高等学校平成 31 年度教科 ( 外国語 ( 英語 ) ) 科目 ( 英語表現 Ⅱ ) 年間授業計 ( 標準 α) 教 科 : 外国語 ( 英語 ) 科目 : 英語表現 Ⅱ 単位数 : 2 単位 対象学年組 : 第 2 学年 A 組 ~G 組 教科担当者 :(A 組 : 岡本 松井 )( 京都立石神井高等学校平成 3 年度教科 ( 外国語 ( 英語 ) ) 科目 ( 英語表現 Ⅱ ) 年間授業計 ( 標準 α) 教 科 : 外国語 ( 英語 ) 科目 : 英語表現 Ⅱ 単位数 : 単位 対象学年組 : 第 学年 A 組 ~G 組 教科担当者 :(A 組 : 岡本 松井 )(BC 組発展 : 松井 標準 α: 柳田 標準 β: 岡本 )(DE 組発展 : 川原 標準 α: 松井標準 β:

More information

1. 2. SRT100 3. QAC/TM 4. QAC/TM 5. QAC/TM 6. QAC/TM ( ) 7. [APPENDIX 1] [APPENDIX 2] QAC/TM Classification 2

1. 2. SRT100 3. QAC/TM 4. QAC/TM 5. QAC/TM 6. QAC/TM ( ) 7. [APPENDIX 1] [APPENDIX 2] QAC/TM Classification 2 SRT100 QAC/TM (Rev.10.00.49 ) 2010 1 Copyright (C) 2010 Trend Micro Incorporated. All rights reserved. TRENDMICRO 1. 2. SRT100 3. QAC/TM 4. QAC/TM 5. QAC/TM 6. QAC/TM ( ) 7. [APPENDIX 1] [APPENDIX 2] QAC/TM

More information

Virtual Window System Virtual Window System Virtual Window System Virtual Window System Virtual Window System Virtual Window System Social Networking

Virtual Window System Virtual Window System Virtual Window System Virtual Window System Virtual Window System Virtual Window System Social Networking 23 An attribute expression of the virtual window system communicators 1120265 2012 3 1 Virtual Window System Virtual Window System Virtual Window System Virtual Window System Virtual Window System Virtual

More information

(Microsoft Word - deim2009\215\305\217I\224\305_kobayashi.docx)

(Microsoft Word - deim2009\215\305\217I\224\305_kobayashi.docx) DEIM Forum 2009 C6-4 Web 上のレビュー情報からユーザが重要視する製品の特徴を抽出する手法の提案 小林大祐 井上潮 東京電機大学工学研究科 101-8457 東京都千代田区神田錦町 2-2 E-mail: 08gmc13@ed.cck.dendai.ac.jp, inoue@c.dendai.ac.jp あらまし製品のレビューを書くための Web サイトが存在し, 利用者も多い.

More information

情報工学実験 C コンパイラ第 2 回説明資料 (2017 年度 ) 担当 : 笹倉 佐藤

情報工学実験 C コンパイラ第 2 回説明資料 (2017 年度 ) 担当 : 笹倉 佐藤 情報工学実験 C コンパイラ第 2 回説明資料 (2017 年度 ) 担当 : 笹倉 佐藤 2017.12.7 前回の演習問題の解答例 1. 四則演算のできる計算機のプログラム ( 括弧も使える ) 2. 実数の扱える四則演算の計算機のプログラム ( 実数 も というより実数 が が正しかったです ) 3. 変数も扱える四則演算の計算機のプログラム ( 変数と実数が扱える ) 演習問題 1 で行うべきこと

More information

言語資源活用ワークショップ 2019 発表論文集 半教師あり語義曖昧性解消における各ジャンルの語義なし用例文の利用 谷田部梨恵 ( 茨城大学大学院理工学研究科 ) 佐々木稔 ( 茨城大学工学部情報工学科 ) Semi-Supervised Word Sense Disambiguation Usin

言語資源活用ワークショップ 2019 発表論文集 半教師あり語義曖昧性解消における各ジャンルの語義なし用例文の利用 谷田部梨恵 ( 茨城大学大学院理工学研究科 ) 佐々木稔 ( 茨城大学工学部情報工学科 ) Semi-Supervised Word Sense Disambiguation Usin 半教師あり語義曖昧性解消における各ジャンルの語義なし用例文の利用 谷田部梨恵 ( 茨城大学大学院理工学研究科 ) 佐々木稔 ( 茨城大学工学部情報工学科 ) Semi-Supervised Word Sense Disambiguation Using Unlabeled Examples of Each Genre Rie Yatabe (Ibaraki University) Minoru Sasaki

More information

Microsoft PowerPoint - mp11-06.pptx

Microsoft PowerPoint - mp11-06.pptx 数理計画法第 6 回 塩浦昭義情報科学研究科准教授 shioura@dais.is.tohoku.ac.jp http://www.dais.is.tohoku.ac.jp/~shioura/teaching 第 5 章組合せ計画 5.2 分枝限定法 組合せ計画問題 組合せ計画問題とは : 有限個の もの の組合せの中から, 目的関数を最小または最大にする組合せを見つける問題 例 1: 整数計画問題全般

More information

人工知能学会インタラクティブ情報アクセスと可視化マイニング研究会 ( 第 7 回 ) SIG-AM-7-04 model with 9 weight layers(vgg9) の学習済みモデルを用いる.LSTM では, 本研究で作成した学習データセットの訓練データから言語モデルを生成する. 図 De

人工知能学会インタラクティブ情報アクセスと可視化マイニング研究会 ( 第 7 回 ) SIG-AM-7-04 model with 9 weight layers(vgg9) の学習済みモデルを用いる.LSTM では, 本研究で作成した学習データセットの訓練データから言語モデルを生成する. 図 De 人工知能学会インタラクティブ情報アクセスと可視化マイニング研究会 ( 第 7 回 ) SIG-AM-7-04 深層学習による日本語キャプション生成システムの開発 Development of Japanese caption generation system by deep learning 小林豊 鈴木諒 谷津元樹 原田実 Yutaka Kobayashi, Ryo Suzuki, Motoki

More information

Outline ACL 2017 ACL ACL 2017 Chairs/Presidents

Outline ACL 2017 ACL ACL 2017 Chairs/Presidents ACL 2017, 2017/9/7 Outline ACL 2017 ACL ACL 2017 Chairs/Presidents ACL ACL he annual meeting of the Association for Computational Linguistics (Computational Linguistics) (Natural Language Processing) /

More information

untitled

untitled DEIM Forum 2019 C1-2 305-8573 1-1-1 305-8573 1-1-1 () 151-0053 1-3-15 6F QA,,,, Detecting and Analysing Chinese Web Sites for Collecting Know-How Knowledge Wenbin NIU, Yohei OHKAWA,ShutoKAWABATA,ChenZHAO,TianNIE,

More information

_314I01BM浅谷2.indd

_314I01BM浅谷2.indd 587 ネットワークの表現学習 1 1 1 1 Deep Learning [1] Google [2] Deep Learning [3] [4] 2014 Deepwalk [5] 1 2 [6] [7] [8] 1 2 1 word2vec[9] word2vec 1 http://www.ai-gakkai.or.jp/my-bookmark_vol31-no4 588 31 4 2016

More information

STEP1 STEP3 STEP2 STEP4 STEP6 STEP5 STEP7 10,000,000 2,060 38 0 0 0 1978 4 1 2015 9 30 15,000,000 2,060 38 0 0 0 197941 2016930 10,000,000 2,060 38 0 0 0 197941 2016930 3 000 000 0 0 0 600 15

More information

P072-076.indd

P072-076.indd 3 STEP0 STEP1 STEP2 STEP3 STEP4 072 3STEP4 STEP3 STEP2 STEP1 STEP0 073 3 STEP0 STEP1 STEP2 STEP3 STEP4 074 3STEP4 STEP3 STEP2 STEP1 STEP0 075 3 STEP0 STEP1 STEP2 STEP3 STEP4 076 3STEP4 STEP3 STEP2 STEP1

More information

1

1 1 2 3 4 5 6 7 8 9 0 1 2 6 3 1 2 3 4 5 6 7 8 9 0 5 4 STEP 02 STEP 01 STEP 03 STEP 04 1F 1F 2F 2F 2F 1F 1 2 3 4 5 http://smarthouse-center.org/sdk/ http://smarthouse-center.org/inquiries/ http://sh-center.org/

More information

柴山 専門英語の教育とコーパスの利用 動詞の判定基準は省略するが 検索の都合で 同じ語 図1 介入の語彙リスト最上部 の同じ語形が動詞と他品詞の両方に使われている場 合は動詞とした ただし後の用例検索では他品詞を除 外した 表4 動詞 助動詞のリスト 上位20位まで 介入 図2 根拠の語彙リスト最上部 図1と図2で目に付くことがある 両図の5位まで に入っている語が全く同じで すべて機能語(冠詞 前

More information

1 2. Nippon Cataloging Rules NCR [6] (1) 5 (2) 4 3 (3) 4 (4) 3 (5) ISSN 7 International Standard Serial Number ISSN (6) (7) 7 16 (8) ISBN ISSN I

1 2. Nippon Cataloging Rules NCR [6] (1) 5 (2) 4 3 (3) 4 (4) 3 (5) ISSN 7 International Standard Serial Number ISSN (6) (7) 7 16 (8) ISBN ISSN I Development of Digital Archive System of Comics Satoshi Tsutsui Kojima Kazuya The comic published in Japan is liked to read from of old by a lot of people, and builds our life and implications now. The

More information

概要 単語の分散表現に基づく統計的機械翻訳の素性を提案 既存手法の FFNNLM に CNN と Gate を追加 dependency- to- string デコーダにおいて既存手法を上回る翻訳精度を達成

概要 単語の分散表現に基づく統計的機械翻訳の素性を提案 既存手法の FFNNLM に CNN と Gate を追加 dependency- to- string デコーダにおいて既存手法を上回る翻訳精度を達成 Encoding Source Language with Convolu5onal Neural Network for Machine Transla5on Fandong Meng, Zhengdong Lu, Mingxuan Wang, Hang Li, Wenbin Jiang, Qun Liu, ACL- IJCNLP 2015 すずかけ読み会奥村 高村研究室博士二年上垣外英剛 概要

More information

15.06月号.indd

15.06月号.indd 2015. no521 6 2015.6 News 2015.6 News News 2015.6 2015.6 News News 2015.6 News 2015.6 2015.6 2015.6 2015.6 2015.6 2015.6 2015.6 2015.6 2015.6 2015.6 2015.6 2015.6 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

More information

14.08月号.indd

14.08月号.indd 2014. no511 8 News 2014.8 News 2014.8 News 2014.8 News 2014.8 2014.8 2014.8 News 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 2014.8 1 2 3 4 5 6 7 8

More information

15.03月号.indd

15.03月号.indd 2015. no518 3 2015.3 2015.3 News 2015.3 2015.3 News News 2015.3 2015.3 2015.3 2015.3 2015.3 2015.3 2015.3 2015.3 2015.3 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

More information

2 1

2 1 http://www.kikkoman.co.jp/ 2 1 21,646 11,219 5,275 17,350 6,056 20,983 2,777 10,793 4,327 10,125 10,739 128,391 359,906 119,975 392,611 59,993 202,727 18,557 1,401 4,052 4,045 5,702 5,852 2,378 103,445

More information

NAACL2018参加報告

NAACL2018参加報告 NAACL2018 参加報告 東京工業大学上垣外英剛 1 NAACL2018 自己紹介 上垣外英剛 ( かみがいとひでたか ) 東工大高村研で博士取得 (2017/3) 昨年まで NTT コミュニケーション科学基礎研究所でポスドク (2017/4~2018/3) 現在東工大奥村研助教 (2018/4~) 今まで行ってきた研究機械翻訳 自動要約 句構造解析 2 NAACL2018 自己紹介 上垣外英剛

More information

Mastering the Game of Go without Human Knowledge ( ) AI 3 1 AI 1 rev.1 (2017/11/26) 1 6 2

Mastering the Game of Go without Human Knowledge ( ) AI 3 1 AI 1 rev.1 (2017/11/26) 1 6 2 6 2 6.1........................................... 3 6.2....................... 5 6.2.1........................... 5 6.2.2........................... 9 6.2.3................. 11 6.3.......................

More information

1 (PCA) 3 2 P.Viola 2) Viola AdaBoost 1 Viola OpenCV 3) Web OpenCV T.L.Berg PCA kpca LDA k-means 4) Berg 95% Berg Web k-means k-means

1 (PCA) 3 2 P.Viola 2) Viola AdaBoost 1 Viola OpenCV 3) Web OpenCV T.L.Berg PCA kpca LDA k-means 4) Berg 95% Berg Web k-means k-means Web, Web k-means 62% Associating Faces and Names in Web Photo News Akio Kitahara and Keiji Yanai We propose a system which extracts faces and person names from news articles with photographs on the Web

More information

CASSIOPEIA E-3000 ユーザーズガイド

CASSIOPEIA E-3000 ユーザーズガイド Pocket PC 1 3 2 1 u 4 5 6 7 y t 8 r e 9 w q 0 1 2 3 4 5 6 7 8 9 0 q w e r t y u 1 o g i g f d p s a i o p a 1 s d f g 1 1 1 1 1 1 3 2 1 1 1 1 2 1 1 2 1 2 2 2 2 2 2 2 2 (! #$%&

More information

NLP プログラミング勉強会 4 単語分割 自然言語処理プログラミング勉強会 4 - 単語分割 Graham Neubig 奈良先端科学技術大学院大学 (NAIST) 1

NLP プログラミング勉強会 4 単語分割 自然言語処理プログラミング勉強会 4 - 単語分割 Graham Neubig 奈良先端科学技術大学院大学 (NAIST) 1 自然言語処理プログラミング勉強会 4 - 単語分割 Graham Neubig 奈良先端科学技術大学院大学 (NAIST) 1 単語分割とは 日本語や中国語 タイ語などは英語と違って単語の間に空白を使わない 単語分割を行う 単語分割は単語の間に明示的な区切りを入れる 単語分割を行う 2 必要なプログラミング技術 : 部分文字列 文字列の一部からなる部分文字列を作る方法 $./my-program.py

More information

クラスタリング クラスタリングとは クラスタの良さを類似度 目的関数で定義 困難 教師ありクラスタリング 類似度 目的関数ではなく 教師情報 制約を導入 教師情報 制約に一致するクラスタが良い クラスタリング問題を 絶対クラスタリングと相対クラスタリング に分けて考える必要 2

クラスタリング クラスタリングとは クラスタの良さを類似度 目的関数で定義 困難 教師ありクラスタリング 類似度 目的関数ではなく 教師情報 制約を導入 教師情報 制約に一致するクラスタが良い クラスタリング問題を 絶対クラスタリングと相対クラスタリング に分けて考える必要 2 教師ありクラスタリング と 絶対/相対クラスタリング 神嶌 敏弘 http://www.kamishima.net/ 産業技術総合研究所 2006年情報論的学習理論ワークショップ(IBIS2006) 2006/10/31-11/2 1 クラスタリング クラスタリングとは クラスタの良さを類似度 目的関数で定義 困難 教師ありクラスタリング 類似度 目的関数ではなく 教師情報 制約を導入 教師情報 制約に一致するクラスタが良い

More information

ID () PASSWORD ( ) - -

ID () PASSWORD ( ) - - News System ID () PASSWORD ( ) - - - - - - - - - - Gallery System ID () PASSWORD ( ) - - - - - - - - - - Coupon System ID () PASSWORD ( ) - - - - Calendar System ID () PASSWORD ( ) - - 2 3 1 20 - - 1 Mail

More information

Functional Programming

Functional Programming PROGRAMMING IN HASKELL プログラミング Haskell Chapter 10 - Declaring Types and Classes 型とクラスの定義 愛知県立大学情報科学部計算機言語論 ( 山本晋一郎 大久保弘崇 2011 年 ) 講義資料オリジナルは http://www.cs.nott.ac.uk/~gmh/book.html を参照のこと 0 型宣言 (Type Declarations)

More information

目    次

目    次 1 2 3 t 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 IP 169 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67

More information

英語原稿の書き方

英語原稿の書き方 初めての人のための 英語の論文の書き方 英文偏 1 荒木光典 2 を網羅するには書籍が必要 本プレゼンでは 論文に議論を絞る 実践を踏まえて初めて書く人の混乱を防ぐ 難度分類 : 難 使う道具は 3 辞書 おすすめ英辞郎 ( インストール判 ) 例文検索 weblio http://ejje.weblio.jp/sentence/ レアものに注意 1 例しかない例文をまねない 知らない単語の調べ方

More information

Microsoft PowerPoint - 04_01_text_UML_03-Sequence-Com.ppt

Microsoft PowerPoint - 04_01_text_UML_03-Sequence-Com.ppt システム設計 (1) シーケンス図 コミュニケーション図等 1 今日の演習のねらい 2 今日の演習のねらい 情報システムを構成するオブジェクトの考え方を理解す る 業務プロセスでのオブジェクトの相互作用を考える シーケンス図 コミュニケーション図を作成する 前回までの講義システム開発の上流工程として 要求仕様を確定パソコンを注文するまでのユースケースユースケースから画面の検討イベントフロー アクティビティ図

More information

B HNS 7)8) HNS ( ( ) 7)8) (SOA) HNS HNS 4) HNS ( ) ( ) 1 TV power, channel, volume power true( ON) false( OFF) boolean channel volume int

B HNS 7)8) HNS ( ( ) 7)8) (SOA) HNS HNS 4) HNS ( ) ( ) 1 TV power, channel, volume power true( ON) false( OFF) boolean channel volume int SOA 1 1 1 1 (HNS) HNS SOA SOA 3 3 A Service-Oriented Platform for Feature Interaction Detection and Resolution in Home Network System Yuhei Yoshimura, 1 Takuya Inada Hiroshi Igaki 1, 1 and Masahide Nakamura

More information

TC1-31st Fuzzy System Symposium (Chofu, September -, 15) cremental Neural Networ (SOINN) [5] Enhanced SOINN (ESOINN) [] ESOINN GNG Deng Evolving Self-

TC1-31st Fuzzy System Symposium (Chofu, September -, 15) cremental Neural Networ (SOINN) [5] Enhanced SOINN (ESOINN) [] ESOINN GNG Deng Evolving Self- TC1-31st Fuzzy System Symposium (Chofu, September -, 15) Proposing a Growing Self-Organizing Map Based on a Learning Theory of a Gaussian Mixture Model Kazuhiro Tounaga National Fisheries University Abstract:

More information

Deep Learning によるビッグデータ解析 ~ 手法や CUDA による高速化 2014 年 9 月 5 日 G-DEP ソリューションパートナー株式会社システム計画研究所奥村義和

Deep Learning によるビッグデータ解析 ~ 手法や CUDA による高速化 2014 年 9 月 5 日 G-DEP ソリューションパートナー株式会社システム計画研究所奥村義和 Deep Learning によるビッグデータ解析 ~ 手法や CUDA による高速化 2014 年 9 月 5 日 G-DEP ソリューションパートナー株式会社システム計画研究所奥村義和 目次 DeepLearning と GPU G-DEP テストドライブ ビッグデータ GPU DeepLearning の接点 目次 DeepLearningとGPU DeepLearningとは 仕組みと計算

More information

Microsoft PowerPoint - qcomp.ppt [互換モード]

Microsoft PowerPoint - qcomp.ppt [互換モード] 量子計算基礎 東京工業大学 河内亮周 概要 計算って何? 数理科学的に 計算 を扱うには 量子力学を計算に使おう! 量子情報とは? 量子情報に対する演算 = 量子計算 一般的な量子回路の構成方法 計算って何? 計算とは? 計算 = 入力情報から出力情報への変換 入力 計算機構 ( デジタルコンピュータ,etc ) 出力 計算とは? 計算 = 入力情報から出力情報への変換 この関数はどれくらい計算が大変か??

More information

高等学校英語科学習指導案 平成 30 年 10 月 19 日 ( 金 )2 校時沖縄県立 高等学校 1 年 7 組 35 名 ( 男子 15 名女子 20 名 ) 授業者 : T S 指導教諭 : 1. 単元名 When I Was Sixteen ( 三省堂 CROWN English Serie

高等学校英語科学習指導案 平成 30 年 10 月 19 日 ( 金 )2 校時沖縄県立 高等学校 1 年 7 組 35 名 ( 男子 15 名女子 20 名 ) 授業者 : T S 指導教諭 : 1. 単元名 When I Was Sixteen ( 三省堂 CROWN English Serie 高等学校英語科学習指導案 平成 30 年 10 月 19 日 ( 金 )2 校時沖縄県立 高等学校 1 年 7 組 35 名 ( 男子 15 名女子 20 名 ) 授業者 : T S 指導教諭 : 1. 単元名 When I Was Sixteen ( 三省堂 CROWN English Series [I] Lesson2) 2. 単元設定 1 教材観本単元では 写真家の星野道夫氏の初めての旅ついて話されている

More information

「東京こどもネット・ケータイヘルプデスク(こたエール)」平成22年度相談実績の概要

「東京こどもネット・ケータイヘルプデスク(こたエール)」平成22年度相談実績の概要 734, 35% 62, 11% 84, 16% 530, 26% 235, 11% PC) 396, 73% 579, 28% ) (21 ) 2 3 4 5 6 7 8 9 10 11 12 13 200 150 100 22 182 200 150 100 22 50 54 PC 49 52 PC 50 41 14 17 1 1 4 16 3 6 14 180 250 200 150 235

More information

2014-11.key

2014-11.key 2014-11 1 2 3 4 5 7 8 9 10 11 12 PC 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 45 46 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68

More information