SlideShare a Scribd company logo
1 of 41
Download to read offline
GiNZAで始める
日本語依存構造解析
CaboCha, UDPipe, Stanford NLP
との比較
2019.09.04
Universal Dependencies シンポジウム@ 国立国語研究所
Megagon Labs リサーチサイエンティスト 松田寛
@hmtd223 (twitter)
発表者略歴
• 松田寛
• 奈良先端科学技術大学院大学
情報科学研究科博士前期課程

ChaSen 2.0, VisualMorphsを開発
• 株式会社ジャストシステム
NLPエンジニア → 研究開発部長
• 2012- 開発者兼データサイエンティスト
としてスタートアップ数社をお手伝い
• 2018- Megagon Labsにjoin
• 趣味
• Viola演奏・珈琲焙煎・離島巡り
2
Megagon Labsの紹介
•Mountain Viewと銀座の両拠点で約20名が研究に従事
•Vision
• To satisfy people's needs and desires with immediate access to the most
useful services and information.
•Our core strength
• Data Preparation and Integration
• Natural Language Processing
• Machine Learning
• Human-Computer Interaction
3
Content
• 40年間の進歩の歴史を概観
• グローバルサービスにおける日本語対応の課題
自然言語処理技術発展の歴史
• GiNZAの特長
GiNZAの誕生
• インストールと解析
• GPUによる高速化
GiNZAの使い方
• Stanford NLP
• UDPipe
• NLP-Cube
• 解析結果の比較
他の日本語UD解析系
4
自然言語処理技術の
発展 - 1978年
• 東芝が日本初のワードプロセッサを発表(630万円)
• 日本語入力で初めて形態素解析を導入
• 同研究所ではCNNの原型が研究されていた
• 日本語文字コード JIS C 6226 制定
• 生成文法理論の発展と計算機上の実証実験
• アンチテーゼとしての認知言語学の勃興
• メタファー・カテゴリ化などの認知能力の研究
出典:wikipedia
画像出典: JW-10, Dddeco, wikipedia
5
自然言語処理技術の
発展 - 1985年
•PC98+DOS+一太郎の黄金期始まる
• JIS第二水準漢字ROM搭載が標準化
• 日本語入力技術の開発競争激化
•初の日英自動翻訳システム発売
• PC向けの製品も同年に発売された
•ルールベースNLPの飛躍的な発展
• 哲学・言語学・計算機科学の融合が進む
• 日本は自然言語処理の先進国となっていく
•言語学は文脈を考慮した記号処理に移行
• 語の静的意味と文脈依存(言語使用上)の
意味の分離 → 分散表現の進歩のデジャブ
出典:SemanticScholar 6
自然言語処理技術の
発展 - 1993年
•32bit PC & Windowsの普及
•WebブラウザMosaicの登場
•IBMが統計的機械翻訳技術を論文発表
• 音声認識ソフトウェア発売(1994)
•NLPに立ち塞がる二つの壁の顕在化
• 文法カバー率の限界(知識記述コストの壁)
• データスパースネス問題(共起空間の壁)
•話し言葉への注目
• 話し言葉と書き言葉を統合する文法は作れるか?
画像出典:flicker
出典:ResearchGate 7
自然言語処理技術の
発展 - 1999年
•Internet普及・iモード提供開始
•掲示板・メールで独自の文体が生まれる
•Unicode 3.0公開・Webの国際化が一気に進む
•SVMやCRF(2003)など機械学習手法がルール
の精度を超える
出典:chasen.org (CaboChaの解析モデル) 出典:ACL anthology (MeCabの解析モデル)
画像出典:iMac G3, Pedro Moura Pinheiro, flicker
8
自然言語処理技術の
発展 - 2010年
•スマフォ所有率20%超え
•画像・音声認識でDeep Learning
技術が精度を飛躍的に向上
•自然言語処理でもDeep Learning
応用が徐々に広まりを見せる
•Googleが発表したword2vec(2013)
により流れが一気に加速
•言葉の意味をベクトルで表現する
Embeddingの時代に突入していく
出典:ResearchGate 出典:arxiv
出典:ACL anthology
画像出典: Iphone4, DanielZanetti, wikipedia
9
そして、自然言語処理技術は今
•2018年に文脈を考慮するEmbedding技術(ELMo・BERT)の発表
• 全ての研究を過去のものとする圧倒的精度向上をもたらした
•これらの技術はオープンソースソフトウェアとして利用可能
• 日本語への応用も活発に行われているが商用利用には隠れた壁が…
出典:arxiv 10
グローバル市場での日本語対応の課題
•言語対応の優先度決定でよくあるフロー
• サービス展開先のマーケットにおける言語シェアの上位9割をカバー
• 開発は英語・中国語からフィージビリティ検証を開始
• 徐々に対象言語を拡張...日本語対応は後回しになりがち
•自然言語処理フレームワークとして成長著しいspaCyでは
• 商用利用に耐えるライブラリ品質・速度と精度のバランスも良い
• 多言語対応を謳い日本語もラインナップされている
• しかしspaCyには日本語の依存構造解析モデルがなかった!
• Tokenizer(形態素解析)のみ対応
• やはり日本語対応は後回しに...
11
サービス開発現場の実情
•オープンソースを活用し効率よくサービスを日本語化したい
• 検索はSolr・Elasticsearchなら標準のkuromojiで手軽に日本語が扱える
• 辞書は色々あるけどひとまず新語が入ったNEologdを入れておこう
• 分析を進めるうちに固有名詞を広く取りすぎる傾向に閉口し始める
• 分かち書きより深い分析を行うには自力でNLPを組み込む必要がある
• 独自構築したNLPをどうやってメンテしていけばよいのか...
•海外では日本語よりも中国語対応を優先する傾向が強い
• 簡体字中国語圏のマーケットは日本語より数倍大きく予算もつく
• 日本語は商用フリーで使える言語資源が乏しい…
• なら日本語は後回しにしてマーケットが大きい中国語を優先しよう
12
自然言語処理技術者としての使命
•過去のコンサル経験で同様の日本語の課題に何度も遭遇
• 日本語を扱うサービスが減少する危機感をもっていた
•スマートな解析フレームワークを用意することがNLPerの役割
• とにかく応用側が分析に集中できることが重要
• 品詞体系云々でデータサイエンティストを迷わせていてはダメ
• ライブラリ・辞書・モデルのインストールが煩雑だと離脱者が増える
• コマンド一行で導入が完了することが現場の理想
•Megagon Labsでこれら要件を満たす新NLPの実装にトライした
13
新・日本語NLPの基本設計
• フレームワークにspaCyを採用
• 文法体系はspaCy標準のUniversal Dependenciesを使用
• TokenizerにはSudachiPyを使用
• Pure-python化によりインストール作業を極限までシンプル化できる
• 依存構造解析学習データセットにはUD-Japanese BCCWJを使用
• 現代日本語書き言葉均衡コーパス - 約4万文に正解データを付与
• 多分野のテキストから成る日本語で最大の依存構造データセット
• 口コミ・チャットなど多様な文体を高精度に解析できることに期待
• 固有表現抽出の学習には京都大学ウェブ文書リードコーパスを使用
• 条件付きながら商用利用も可能な中規模のデータセット
14
技術課題:可能性品詞の用法曖昧性解消
•形態素解析の出力品詞
• UniDic短単位品詞は「名詞-普通名詞-サ変可能」のように可能性を含む
• 形態素解析の可能性品詞の解決は日本語NLP業界の十年来の課題
テスト=名詞 e.g. 私はツールでテストを作った。
テスト=動詞 e.g. 私はツールでテストした。
•Universal Dependencies品詞体系は用法を区別する
• 有識者との協議では効率的な解決策は見出せず
• 品詞書き換えルールの開発工数は膨大・カバレッジの不安で見送り
• 新たな学習モデルをspaCyに追加実装する時間はなかった
15
結論:依存関係ラベリングで用法も解決
「短単位品詞の用法曖昧性解決と依存関係ラベリングの同時学習」
16
学習データの概要と依存構造解析性能
詳細は下記リンクを参照
• 言語処理学会第25回年次大会
• 論文
• 発表スライド
17
spaCyの機械学習技術
• 依存関係ラベリングはspaCyにビルトインされた
独自実装のCNN(畳込みニューラルネットワーク)
で学習・解析される
• CNNのルーツは40年前の日本の研究成果
猫の神経細胞を模したネオコグニトロン
出典:NII
出典:arxiv
18
GiNZAの誕生
言語処理学会論文
発表と同時にGiNZA
β版をGitHubでリ
リース
15 March 2019
GiNZA v1.0.2
(令和対応版)
正式公開
2 April 2019
GiNZA v2.0.0
リリース
8 July 2019
spaCy公式
日本語モデル
リリース
Coming soon
19
GiNZAという名に
託した想い
• 銀座の街が持つ国際的ブランドイメージ
• 商人の街・銀座は日本の文化を世界に送り
出し影響を与え合ってきた
• 全世界のビジネスで手軽に使える日本語
NLPを提供し産業活性化に貢献したい
出典 https://ja.wikipedia.org/wiki/海_(ドビュッシー) 20
GiNZA - 特長
•MITライセンスでモデルを含めて商用利用可能
• BCCWJ由来の依存構造解析モデルをフリーで利用可能
• 他の日本語UD解析系が使用するGSDコーパスの5倍以上の規模で学習
•pip一行ですべて導入完了
• SudachiPyおよび150万語彙を備えるSudachi辞書も一括インストール
• MeCab・CaboCha等と比較してDocker等での環境構築が圧倒的に楽
•spaCyの豊富な機能セットを利用できる
• 日本語以外の言語モデルへの切り替えが容易 (spaCy公式サポートは8言語)
• 依存構造解析結果の視覚化 → displaCy
• アノテーションツール → Prodigy
21
displaCyによる視覚化の例(論文より)
22
GiNZA version 2.0 での主な改良点
•Python Entry Pointsを用いたリファクタリング
• インストール時に ginza コマンドを自動登録→すぐに試せる
•ユーザ辞書の追加に対応
• SudachiPyをv0.3.2にupgrade
•日本語を扱うための機能強化
• 文節情報(開始位置・主辞と機能語の区分)を取得可能に
token._.bunsetu_bi_label → B or I
token._.bunsetu_position_type
→ ROOT, SEM_HEAD, SYN_HEAD, NO_HEAD, FUNC, CONT
• spaCy標準APIでUniDic品詞情報を取得可能に
token.tag_ → 名詞-普通名詞-サ変可能
23
GiNZA - 使い方
• インストール (python 3.6以上)
$ pip install "https://github.com/megagonlabs/ginza/releases/download/latest/ginza-latest.tar.gz"
• 解析
$ python
>>> import spacy
>>> nlp = spacy.load('ja_ginza')
>>> doc = nlp('また行きたい、そんな気持ちにさせてくれるお店です。')
>>> for token in doc[0]:
>>> print(token.i, token.orth_, token.lemma_, token.pos_, token.tag_, token.dep_, token.head.i)
※ CLIツールによるCONLL-U形式出力
$ ginza sentence_per_line.txt
24
GiNZA - GPUの有効化
• explosion社はspaCyとともにGPUライブラリthincを提供(cupyベース)
• ginzaの後にspacyをオプション付きで再インストールする (CUDA 10.0の例)
$ pip install "https://github.com/megagonlabs/ginza/releases/download/latest/ginza-latest.tar.gz"
$ pip install -U spacy[cuda100]
• 解析
$ python
>>> import spacy
>>> spacy.require_gpu()
>>> nlp = spacy.load('ja_ginza')
※ CLI
$ ginza -g sentence_pre_line.txt
25
他の日本語UD解析系
Stanford NLP, UDPipe, NLP-cube
Stanford NLP - 特長
• CoNLL 2018 Shared Task参加時のStanfordの手法がベース
• tokenize,lemmatize,tagging,parse全てをDNN実装したEnd-to-endモデル
• 解析速度は遅くメモリ消費も大きい (v0.2.0でやや改善された)
• Pythonによる実装 → PyTorchを使用しておりGPUで高速化できる
• Apache License, Version 2.0
• 53言語対応
• 多くのモデルはNC(非商用条項)つき
• 日本語モデル
• UD_Japanese-GSD (r2.2?) - 7千文,16万語から学習
• VocabはGSDで出現頻度7回以上の2,260語 + 文字素性2,860件
• 学習コーパスが小さいためモデル本来の性能は得られていない?
27
Stanford NLP - 使い方
• インストール (python 3.6.8 or 3.7.2以上)
$ pip install stanfordnlp
$ python
>>> import stanfordnlp
>>> stanfordnlp.download('ja')
• 解析
>>> nlp = stanfordnlp.Pipeline(lang='ja', treebank='ja_gsd')
>>> doc = nlp('また行きたい、そんな気持ちにさせてくれるお店です。')
>>> doc.sentences[0].print_dependencies()
※ CLIツールによるCONLL-U形式出力
$ python -m stanfordnlp.run_pipeline -l ja -t ja_gsd sentence_per_line.txt
28
Stanford NLP - GPUの有効化
• 先にanaconda3環境でpytorch CUDA環境を導入する
$ pyenv local anaconda3-2019.7
$ conda install pytorch torchvision cudatoolkit=10.0 -c pytorch
$ pip install stanfordnlp
• 解析
$ python
>>> import stanfordnlp
>>> stanfordnlp.download('ja')
>>> nlp = stanfordnlp.Pipeline(lang='ja', treebank='ja_gsd', use_gpu=True)
※ CLIでのGPUサポートは現時点ではなし
29
UDPipe - 特長
• Universal Dependenciesの標準解析系
• Charles UniversityによるC++実装 → Python, Java, C#, Perl向けbindingあり
• 元来Gold Tokenを与えて依存構造解析精度を評価するためのツール
• tokenizerの精度は低く産業用途には向かない
• ニューラルベースの実装
• GPU対応は計画中 (v2.0 or 3.0?)
• Mozilla Public License 2.0
• UD Treebankのほぼ全ての言語に対応
• 多くのモデルはNC(非商用条項)つき
• 日本語を含む60言語に対応したUD2.4学習済みモデル
• UD_Japanese-GSD - 7千文,16万語から学習
30
UDPipe - 使い方 (Python binding)
• インストール (Python 2.6以上 or 3.x)
$ pip install ufal.udpipe
モデルページ下部のリストから japanese-gsd-ud-2.4-190531.udpipe をダウンロード
• 解析
>>> from ufal.udpipe import Model, Pipeline, ProcessingError
>>> model = Model.load('japanese-gsd-ud-2.4-190531.udpipe')
>>> pipeline = Pipeline(model, 'tokenize', Pipeline.DEFAULT, Pipeline.DEFAULT, 'conllu')
>>> error = ProcessingError()
>>> text = 'また行きたい、そんな気持ちにさせてくれるお店です。'
>>> processed = pipeline.process(text, error)
>>> print(processed)
※ CLIツールはC++版で提供されている
31
NLP-cube - 特長
• CoNLL 2018 Shared Task参加時のAdobeの手法がベース
• Stanford NLPと同様にEnd-to-endなニューラル実装
• パフォーマンスについても同様の傾向
• GPUで高速化できる (cube/main.pyの--use-gpuオプション)
• Apache License, Version 2.0
• 51言語対応
• UD 2.2ベース (モデルのライセンスが明示されていない?)
• モデルのダウンロードが非常に遅い
• 日本語モデル
• UD_Japanese-GSD r2.2 - 7千文,16万語から学習
32
NLP-cube - 使い方
• インストール (Python 3.x)
$ pip install nlpcube
$ python
>>> from cube.api import Cube
>>> cube=Cube(verbose=True)
>>> cube.load("ja")
• 解析
>>> sentences=cube('また行きたい、そんな気持ちにさせてくれるお店です。')
>>> for t in sentences[0]:
>>> print(t.index, t.word, t.lemma, t.upos, t.xpos, t.attrs, t.head, t.label, t.space_after)
※ CLIツールとして cube/main.py が提供されている (ドキュメント見当たらず)
33
解析結果の比較
参考: CaboChaの解析例
• 文節を決定した上で係り受け解析を行う
• 依存関係ラベリングは行わない
• 解析結果をUDと比較する意義は乏しい
• ただし文節および主辞・付属語の区分は
産業応用においても非常に重要
35
文節区切り 文節内役
割
GiNZA - 解析例 (GSDとは一部基準が異なる)
36
※拡張フィールドには NP(名詞句)とNE(固有表現)も出力される。
# text = また行きたい、そんな気持ちにさせてくれるお店です。
1 また 又 SCONJ 接続詞 _ 2 advmod _ BunsetuBILabel=B|BunsetuPositionType=SEM_HEAD|SpaceAfter=No
2 行き 行く VERB 動詞-非自立可能 _ 12 acl _ BunsetuBILabel=B|BunsetuPositionType=SEM_HEAD|SpaceAfter=No
3 たい たい AUX 助動詞 _ 2 aux _ BunsetuBILabel=I|BunsetuPositionType=SYN_HEAD|SpaceAfter=No
4 、 、 PUNCT 補助記号-読点 _ 2 punct _ BunsetuBILabel=I|BunsetuPositionType=CONT|SpaceAfter=No
5 そんな そんな PRON 連体詞 _ 6 nmod _ BunsetuBILabel=B|BunsetuPositionType=SEM_HEAD|SpaceAfter=No|NP_B
6 気持ち 気持ち NOUN 名詞-普通名詞-一般 _ 8 iobj _ BunsetuBILabel=B|BunsetuPositionType=SEM_HEAD|SpaceAfter=No|NP_I
7 に に ADP 助詞-格助詞 _ 6 case _ BunsetuBILabel=I|BunsetuPositionType=SYN_HEAD|SpaceAfter=No
8 さ 為る AUX 動詞-非自立可能 _ 12 acl _ BunsetuBILabel=B|BunsetuPositionType=SEM_HEAD|SpaceAfter=No
9 せ せる AUX 助動詞 _ 8 aux _ BunsetuBILabel=I|BunsetuPositionType=FUNC|SpaceAfter=No
10 て て SCONJ 助詞-接続助詞 _ 8 mark _ BunsetuBILabel=I|BunsetuPositionType=FUNC|SpaceAfter=No
11 くれる呉れる AUX 動詞-非自立可能 _ 8 aux _ BunsetuBILabel=I|BunsetuPositionType=SYN_HEAD|SpaceAfter=No
12 お店 御店 NOUN 名詞-普通名詞-一般 _ 0 root _ BunsetuBILabel=B|BunsetuPositionType=ROOT|SpaceAfter=No|NP_B
13 です です AUX 助動詞 _ 12 cop _ BunsetuBILabel=I|BunsetuPositionType=SYN_HEAD|SpaceAfter=No
14 。 。 PUNCT 補助記号-句点 _ 12 punct _ BunsetuBILabel=I|BunsetuPositionType=CONT|SpaceAfter=No
Stanford NLP - 解析例
# text = また行きたい、そんな気持ちにさせてくれるお店です。
1 また また CCONJ _ _ 13 advmod _ _
2 行き 行く VERB _ _ 6 acl _ _
3 たい たい AUX _ _ 2 aux _ _
4 、 、 PUNCT _ _ 2 punct _ _
5 そんな そんな ADJ _ _ 6 amod _ _
6 気持ち 気持ち NOUN _ _ 8 iobj _ _
7 に に ADP _ _ 6 case _ _
8 さ する VERB _ _ 13 acl _ _
9 せ せる AUX _ _ 8 aux _ _
10 て て SCONJ _ _ 8 mark _ _
11 くれるくれるAUX _ _ 8 aux _ _
12 お お NOUN _ _ 13 amod _ _
13 店 店 NOUN _ _ 0 root _ _
14 です だ AUX _ _ 13 cop _ _
15 。 。 PUNCT _ _ 13 punct _ _
37
UDPipe - 解析例
# text = また行きたい、そんな気持ちにさせてくれるお店です。
1 また また CCONJ CC _ 2 advmod _ SpaceAfter=No
2 行き 行く VERB VV _ 6 acl _ SpaceAfter=No
3 たい たい AUX AV _ 2 aux _ SpaceAfter=No
4 、 、 PUNCT SYM _ 2 punct _ SpaceAfter=No
5 そんな そんな ADJ JR _ 6 amod _ SpaceAfter=No
6 気持ち 気持ち NOUN NN _ 8 iobj _ SpaceAfter=No
7 に に ADP PS _ 6 case _ SpaceAfter=No
8 さ する VERB VV _ 13 acl _ SpaceAfter=No
9 せ せる AUX AV _ 8 aux _ SpaceAfter=No
10 て て SCONJ PC _ 8 mark _ SpaceAfter=No
11 くれるくれるAUX AV _ 8 aux _ SpaceAfter=No
12 お お NOUN XP _ 13 compound _SpaceAfter=No
13 店 店 NOUN XS _ 0 root _ SpaceAfter=No
14 です だ AUX AV _ 13 cop _ SpaceAfter=No
15 。 。 PUNCT SYM _ 13 punct _ SpacesAfter=n
38
NLP-cube - 解析例
# text = また行きたい、そんな気持ちにさせてくれるお店です。
1 また また CCONJ _ _ 2 advmod _ SpaceAfter=No
2 行き 行く VERB _ _ 6 advcl _ SpaceAfter=No
3 たい たい AUX _ _ 2 aux _ SpaceAfter=No
4 、 、 PUNCT _ _ 2 punct _ SpaceAfter=No
5 そんな そんな ADJ _ _ 6 amod _ SpaceAfter=No
6 気持ち 気持ち NOUN _ _ 8 iobj _ SpaceAfter=No
7 に に ADP _ _ 6 case _ SpaceAfter=No
8 さ する VERB _ _ 13 acl _ SpaceAfter=No
9 せ せる AUX _ _ 8 aux _ SpaceAfter=No
10 て て SCONJ _ _ 8 mark _ SpaceAfter=No
11 くれるくれるAUX _ _ 8 aux _ SpaceAfter=No
12 お お NOUN _ _ 13 amod _ SpaceAfter=No
13 店 店 NOUN _ _ 0 root _ SpaceAfter=No
14 です だ AUX _ _ 13 cop _ SpaceAfter=No
15 。 。 PUNCT _ _ 13 punct _ SpaceAfter=No
39
GiNZA - 今後の展開
•GiNZA v2.1 (近日公開)
• Bug fix + CaboCha互換出力モード
•GiNZA v3.0 - Ametrine
• 高速化されたSudachiPy新バージョンへの移行
• 固有表現抽出モデルの強化
•spaCy公式言語モデルの提供
• GiNZAの機能のサブセットをspaCyのmasterブランチに統合
• UD_BCCWJ-GSDの非NC化(現状はCC BY-NC-SA)を待ってリリース予定
• 課題: GSDコーパスへの固有表現タグ付与
40
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜

More Related Content

What's hot

[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language SupervisionDeep Learning JP
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習cvpaper. challenge
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係についてDeep Learning JP
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデルMasahiro Suzuki
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識佑 甲野
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜Jun Okumura
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
統計的係り受け解析入門
統計的係り受け解析入門統計的係り受け解析入門
統計的係り受け解析入門Yuya Unno
 
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs Deep Learning JP
 
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会Shunichi Sekiguchi
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用Tomonari Masada
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 

What's hot (20)

[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習【メタサーベイ】数式ドリブン教師あり学習
【メタサーベイ】数式ドリブン教師あり学習
 
[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について[DL輪読会]GQNと関連研究,世界モデルとの関係について
[DL輪読会]GQNと関連研究,世界モデルとの関係について
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識多様な強化学習の概念と課題認識
多様な強化学習の概念と課題認識
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
Lucas kanade法について
Lucas kanade法についてLucas kanade法について
Lucas kanade法について
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
統計的係り受け解析入門
統計的係り受け解析入門統計的係り受け解析入門
統計的係り受け解析入門
 
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs & outputs
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
 
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会PILCO - 第一回高橋研究室モデルベース強化学習勉強会
PILCO - 第一回高橋研究室モデルベース強化学習勉強会
 
トピックモデルの基礎と応用
トピックモデルの基礎と応用トピックモデルの基礎と応用
トピックモデルの基礎と応用
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 

Similar to GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜

20160728 hyperscale #03
20160728 hyperscale #0320160728 hyperscale #03
20160728 hyperscale #03ManaMurakami1
 
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)Kotaro Nakayama
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Kenta Oono
 
【関東GPGPU勉強会#3】OpenCVの新機能 UMatを先取りしよう
【関東GPGPU勉強会#3】OpenCVの新機能 UMatを先取りしよう【関東GPGPU勉強会#3】OpenCVの新機能 UMatを先取りしよう
【関東GPGPU勉強会#3】OpenCVの新機能 UMatを先取りしようYasuhiro Yoshimura
 
Cloudn PaaSチームのChatOps実践
Cloudn PaaSチームのChatOps実践Cloudn PaaSチームのChatOps実践
Cloudn PaaSチームのChatOps実践Kazuto Kusama
 
20120405 setsunaセミナー
20120405 setsunaセミナー20120405 setsunaセミナー
20120405 setsunaセミナーTakahiro Iwase
 
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」ManaMurakami1
 
Hueによる分析業務の改善事例
Hueによる分析業務の改善事例Hueによる分析業務の改善事例
Hueによる分析業務の改善事例Masahiro Kiura
 
今日から始める Go言語 と appengine
今日から始める Go言語 と appengine今日から始める Go言語 と appengine
今日から始める Go言語 と appenginea know
 
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とEmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とToru Takahashi
 
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とEmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とToru Takahashi
 
Weeklycms20120218
Weeklycms20120218Weeklycms20120218
Weeklycms20120218Yoshi Sakai
 
【関東GPGPU勉強会#2】OpenCVのOpenCL実装oclMat
【関東GPGPU勉強会#2】OpenCVのOpenCL実装oclMat【関東GPGPU勉強会#2】OpenCVのOpenCL実装oclMat
【関東GPGPU勉強会#2】OpenCVのOpenCL実装oclMatYasuhiro Yoshimura
 
Kubeflowで何ができて何ができないのか #DEvFest18
Kubeflowで何ができて何ができないのか #DEvFest18Kubeflowで何ができて何ができないのか #DEvFest18
Kubeflowで何ができて何ができないのか #DEvFest18Shunya Ueta
 
OSS奨励賞受賞プレゼン 活動紹介
OSS奨励賞受賞プレゼン 活動紹介OSS奨励賞受賞プレゼン 活動紹介
OSS奨励賞受賞プレゼン 活動紹介Hiromu Yakura
 
Osc2012.dbに行ってきました
Osc2012.dbに行ってきましたOsc2012.dbに行ってきました
Osc2012.dbに行ってきましたMasaru Kobashigawa
 
Deep learning reading club @ nimiri for SWEST
Deep learning reading club @ nimiri for SWESTDeep learning reading club @ nimiri for SWEST
Deep learning reading club @ nimiri for SWESTKiyoshi Ogawa
 

Similar to GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜 (20)

20160728 hyperscale #03
20160728 hyperscale #0320160728 hyperscale #03
20160728 hyperscale #03
 
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
 
【関東GPGPU勉強会#3】OpenCVの新機能 UMatを先取りしよう
【関東GPGPU勉強会#3】OpenCVの新機能 UMatを先取りしよう【関東GPGPU勉強会#3】OpenCVの新機能 UMatを先取りしよう
【関東GPGPU勉強会#3】OpenCVの新機能 UMatを先取りしよう
 
Cloudn PaaSチームのChatOps実践
Cloudn PaaSチームのChatOps実践Cloudn PaaSチームのChatOps実践
Cloudn PaaSチームのChatOps実践
 
20120405 setsunaセミナー
20120405 setsunaセミナー20120405 setsunaセミナー
20120405 setsunaセミナー
 
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
 
Hueによる分析業務の改善事例
Hueによる分析業務の改善事例Hueによる分析業務の改善事例
Hueによる分析業務の改善事例
 
2018 07-23
2018 07-232018 07-23
2018 07-23
 
How to run P4 BMv2
How to run P4 BMv2How to run P4 BMv2
How to run P4 BMv2
 
今日から始める Go言語 と appengine
今日から始める Go言語 と appengine今日から始める Go言語 と appengine
今日から始める Go言語 と appengine
 
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とEmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤と
 
EmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤とEmbulkとDigdagとデータ分析基盤と
EmbulkとDigdagとデータ分析基盤と
 
Weeklycms20120218
Weeklycms20120218Weeklycms20120218
Weeklycms20120218
 
【関東GPGPU勉強会#2】OpenCVのOpenCL実装oclMat
【関東GPGPU勉強会#2】OpenCVのOpenCL実装oclMat【関東GPGPU勉強会#2】OpenCVのOpenCL実装oclMat
【関東GPGPU勉強会#2】OpenCVのOpenCL実装oclMat
 
Kubeflowで何ができて何ができないのか #DEvFest18
Kubeflowで何ができて何ができないのか #DEvFest18Kubeflowで何ができて何ができないのか #DEvFest18
Kubeflowで何ができて何ができないのか #DEvFest18
 
OSS奨励賞受賞プレゼン 活動紹介
OSS奨励賞受賞プレゼン 活動紹介OSS奨励賞受賞プレゼン 活動紹介
OSS奨励賞受賞プレゼン 活動紹介
 
Osc2012.dbに行ってきました
Osc2012.dbに行ってきましたOsc2012.dbに行ってきました
Osc2012.dbに行ってきました
 
Deep learning reading club @ nimiri for SWEST
Deep learning reading club @ nimiri for SWESTDeep learning reading club @ nimiri for SWEST
Deep learning reading club @ nimiri for SWEST
 
0621 ndk game
0621 ndk game0621 ndk game
0621 ndk game
 

Recently uploaded

2024 01 Virtual_Counselor
2024 01 Virtual_Counselor 2024 01 Virtual_Counselor
2024 01 Virtual_Counselor arts yokohama
 
2024 02 Nihon-Tanken ~Towards a More Inclusive Japan~
2024 02 Nihon-Tanken ~Towards a More Inclusive Japan~2024 02 Nihon-Tanken ~Towards a More Inclusive Japan~
2024 02 Nihon-Tanken ~Towards a More Inclusive Japan~arts yokohama
 
情報処理学会86回全国大会_Generic OAMをDeep Learning技術によって実現するための課題と解決方法
情報処理学会86回全国大会_Generic OAMをDeep Learning技術によって実現するための課題と解決方法情報処理学会86回全国大会_Generic OAMをDeep Learning技術によって実現するための課題と解決方法
情報処理学会86回全国大会_Generic OAMをDeep Learning技術によって実現するための課題と解決方法ssuser370dd7
 
ARスタートアップOnePlanetの Apple Vision Proへの情熱と挑戦
ARスタートアップOnePlanetの Apple Vision Proへの情熱と挑戦ARスタートアップOnePlanetの Apple Vision Proへの情熱と挑戦
ARスタートアップOnePlanetの Apple Vision Proへの情熱と挑戦Sadao Tokuyama
 
IFIP IP3での資格制度を対象とする国際認定(IPSJ86全国大会シンポジウム)
IFIP IP3での資格制度を対象とする国際認定(IPSJ86全国大会シンポジウム)IFIP IP3での資格制度を対象とする国際認定(IPSJ86全国大会シンポジウム)
IFIP IP3での資格制度を対象とする国際認定(IPSJ86全国大会シンポジウム)ssuser539845
 
20240326_IoTLT_vol109_kitazaki_v1___.pdf
20240326_IoTLT_vol109_kitazaki_v1___.pdf20240326_IoTLT_vol109_kitazaki_v1___.pdf
20240326_IoTLT_vol109_kitazaki_v1___.pdfAyachika Kitazaki
 
「今からでも間に合う」GPTsによる 活用LT会 - 人とAIが協調するHumani-in-the-Loopへ
「今からでも間に合う」GPTsによる 活用LT会 - 人とAIが協調するHumani-in-the-Loopへ「今からでも間に合う」GPTsによる 活用LT会 - 人とAIが協調するHumani-in-the-Loopへ
「今からでも間に合う」GPTsによる 活用LT会 - 人とAIが協調するHumani-in-the-LoopへTetsuya Nihonmatsu
 
TaketoFujikawa_台本中の動作表現に基づくアニメーション原画システムの提案_SIGEC71.pdf
TaketoFujikawa_台本中の動作表現に基づくアニメーション原画システムの提案_SIGEC71.pdfTaketoFujikawa_台本中の動作表現に基づくアニメーション原画システムの提案_SIGEC71.pdf
TaketoFujikawa_台本中の動作表現に基づくアニメーション原画システムの提案_SIGEC71.pdfMatsushita Laboratory
 
持続可能なDrupal Meetupのコツ - Drupal Meetup Tokyoの知見
持続可能なDrupal Meetupのコツ - Drupal Meetup Tokyoの知見持続可能なDrupal Meetupのコツ - Drupal Meetup Tokyoの知見
持続可能なDrupal Meetupのコツ - Drupal Meetup Tokyoの知見Shumpei Kishi
 

Recently uploaded (12)

2024 01 Virtual_Counselor
2024 01 Virtual_Counselor 2024 01 Virtual_Counselor
2024 01 Virtual_Counselor
 
2024 02 Nihon-Tanken ~Towards a More Inclusive Japan~
2024 02 Nihon-Tanken ~Towards a More Inclusive Japan~2024 02 Nihon-Tanken ~Towards a More Inclusive Japan~
2024 02 Nihon-Tanken ~Towards a More Inclusive Japan~
 
情報処理学会86回全国大会_Generic OAMをDeep Learning技術によって実現するための課題と解決方法
情報処理学会86回全国大会_Generic OAMをDeep Learning技術によって実現するための課題と解決方法情報処理学会86回全国大会_Generic OAMをDeep Learning技術によって実現するための課題と解決方法
情報処理学会86回全国大会_Generic OAMをDeep Learning技術によって実現するための課題と解決方法
 
ARスタートアップOnePlanetの Apple Vision Proへの情熱と挑戦
ARスタートアップOnePlanetの Apple Vision Proへの情熱と挑戦ARスタートアップOnePlanetの Apple Vision Proへの情熱と挑戦
ARスタートアップOnePlanetの Apple Vision Proへの情熱と挑戦
 
IFIP IP3での資格制度を対象とする国際認定(IPSJ86全国大会シンポジウム)
IFIP IP3での資格制度を対象とする国際認定(IPSJ86全国大会シンポジウム)IFIP IP3での資格制度を対象とする国際認定(IPSJ86全国大会シンポジウム)
IFIP IP3での資格制度を対象とする国際認定(IPSJ86全国大会シンポジウム)
 
20240326_IoTLT_vol109_kitazaki_v1___.pdf
20240326_IoTLT_vol109_kitazaki_v1___.pdf20240326_IoTLT_vol109_kitazaki_v1___.pdf
20240326_IoTLT_vol109_kitazaki_v1___.pdf
 
What is the world where you can make your own semiconductors?
What is the world where you can make your own semiconductors?What is the world where you can make your own semiconductors?
What is the world where you can make your own semiconductors?
 
「今からでも間に合う」GPTsによる 活用LT会 - 人とAIが協調するHumani-in-the-Loopへ
「今からでも間に合う」GPTsによる 活用LT会 - 人とAIが協調するHumani-in-the-Loopへ「今からでも間に合う」GPTsによる 活用LT会 - 人とAIが協調するHumani-in-the-Loopへ
「今からでも間に合う」GPTsによる 活用LT会 - 人とAIが協調するHumani-in-the-Loopへ
 
TaketoFujikawa_台本中の動作表現に基づくアニメーション原画システムの提案_SIGEC71.pdf
TaketoFujikawa_台本中の動作表現に基づくアニメーション原画システムの提案_SIGEC71.pdfTaketoFujikawa_台本中の動作表現に基づくアニメーション原画システムの提案_SIGEC71.pdf
TaketoFujikawa_台本中の動作表現に基づくアニメーション原画システムの提案_SIGEC71.pdf
 
2024 04 minnanoito
2024 04 minnanoito2024 04 minnanoito
2024 04 minnanoito
 
持続可能なDrupal Meetupのコツ - Drupal Meetup Tokyoの知見
持続可能なDrupal Meetupのコツ - Drupal Meetup Tokyoの知見持続可能なDrupal Meetupのコツ - Drupal Meetup Tokyoの知見
持続可能なDrupal Meetupのコツ - Drupal Meetup Tokyoの知見
 
2024 03 CTEA
2024 03 CTEA2024 03 CTEA
2024 03 CTEA
 

GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜