SlideShare ist ein Scribd-Unternehmen logo
1 von 51
Downloaden Sie, um offline zu lesen
はじめての生成文法 《前編》

   TokyoNLP #5 - 2011/4/23
 中谷秀洋@サ゗ボウズ・ラボ株式会社
     id:n_shuyo / @shuyo
! 注意 !
• 言語学かじって1ヶ月
 – 発表者の「はじめて」の生成文法
• いろいろあやしいところがあります
 – 間違いがあったら優しく教えてくださいまし
• 独断と偏見もけっこうあります
 – 鵜呑みにしないでね!
もくじ 《前編》
1. 言語学=意外に新しい学問
 – 現代「言語学」は、20世紀生まれ
2. 子供はどうやって言語を身につける?
 – あのくらい自然に英語ができたらいいのになあ
3. まずは「文法」から
 – あらためて「文法って何?」て聞かれると……
4. 生成文法へのゕプローチ
 – 予告編ってやつですね!
(予定) もくじ 《後編》
1. 生成文法ってどんな文法?
 – 生成するの?   文法なの?
2. 生成文法の変遷
 – 生成文法 0.0 (句構造文法)
 – 生成文法 1.0 (標準理論)
 – 生成文法 2.0 (原理とパラメータのゕプローチ)
 – 生成文法 3.0 (ミニマリスト・プログラム)
   • ※注:バージョン間の互換性は基本的にありません
3. 生成文法は役に立つのかな
 – 自然科学とフゔンタジーのすきま
言語学=意外に新しい学問
19世紀以前の言語学
• 歴史言語学/比較言語学
 – 世界の言語を分類、系統を明らかにする
 – 「サンスクリット語が起源の゗ンド=ヨーロッパ
   語族」とか
• 修辞学(レトリック)
 – 豊かな文章を書くための技法
• 文法学(伝統文法、規範文法)
 – 「正しい」文章を規定
フェルデゖナン・ド・ソシュール
    (1857-1913)
• 若くして言語学の才能を認められる
 – 『゗ンド・ヨーロッパ語における原始的母音
   体系についての覚え書き』
フェルディナン・ド・ソシュール
      (1857-1913)
• しかし「言語学」に対して根本的な疑問
  を抱いていた

「言語学」って言うけど、
 みんなが研究してるの
「英語」とか「ドイツ語」
    だよね……
フェルディナン・ド・ソシュール
       (1857-1913)
• しかし「言語学」に対して根本的な疑問
  を抱いていた


 「言語学」はやっぱり
「言語」を研究しないとなあ
ソシュールの「一般言語学講義」
• 1906~11年にジュネーブ大学で行われた講義
 – 学生のノートから再構成した講義録
   • ソシュール自身は著作もメモもほとんど残さなかった

• 言語学に多大な影響を与える
ソシュール以降の言語学
• 音韻論
 – 言語を「音素」の列として研究
• 統語論
 – 語の並べ方について研究
   • 「生成文法」の主戦場はここ
• 意味論
 – 語とか文とかがもつ「意味」を研究
• 他にも語用論とか語彙論とか形態論とか
• 認知言語学とか類型論とか記号論とか
ぷちまとめ
• 現代言語学はここ100年の新しい学問
 – NLP や機械学習と意外と差がないね!
• ソシュールさんはすごい人
 – 言語学以外にも多大な影響。構造主義とか
 – 今回はやらないけどね
• 人工知能とも関係あるよ
 – 認知革命とかダートマス会議とか
 – 今回はやらないけどね
(おまけ) 言語学 vs NLP
•   Google Ngram Viewer で比べてみた!
    – 圧倒的じゃないか(負けっぷりが)
    – 言語学の蓄積を活かしたくなるよね
•   “Linguistics” という言葉が生まれたのは19世紀
    – やっぱりけっこう新しい学問なんだね
子供は
どうやって言語を身につける?
言語獲得
• 子供は4~5歳ごろまでに言葉を身につける
 – 母語:子供の時に自然に身につけた言語
 – 「母国語」はいろいろややこしい(政治的に)
• 大人が言語を習得するのは、子供が母語を身
  につけるよりはるかに難しい!!!!
 – ほんとにそう(T_T


• でも、どうして? どうやって?
どうやって?
• 模倣説
 – まわりの言葉を真似て覚える(経験主義)
• 生得説
 – ヒトの脳には生まれたときから「言語機能」
   がある!(キリッ
• 遺伝説
 – 子供に親の言葉が遺(ry
模倣説 vs 生得説
• 模倣説だと説明しにくいことがいろいろ
 – 刺激の貧困
 – 過剰生成
 – 否定証拠の欠如
 – 臨界期仮説
刺激の貧困(プラトンの問題)
• 子供が言語を身につけるとき、
 – ノ゗ズの少ない、大量のコーパス   ←ないない
 – 全員に均質な入力   ←人によって全然違う
• それなのに
 – 短期間(3~4年)で複雑な時制も使いこなし
 – 個体差も少なく(でないと通じない……)
 – 英語でも日本語でもOK!
• 未知の文も生成できる
 – 模倣説だと説明つかない
過剰生成
• 子供は、言語からルールを抽出できる
 – 赤 → 赤い、黄色→ 黄色い
• 当てはまらないケースにも当てはめてしまう
 – 緑 → 緑い、ピンク → ピンクい
  • うちの子供達の実話

• 模倣説では説明つかない
 – 大人は「緑い」って言わない
否定証拠の欠如
• 大人は子供の文法的な間違いを訂正しない
 – 「ピンクいお花~」「うんうん、ピンクだね」
  • むしろ肯定してるし!
• でも、いつのまにか間違えなくなっている
 – うちの子供達も、もう「緑い」とか言わない
• ルールを自覚してないけど、ちゃんとわかってる
 – ○白い、黒い、茶色い
 – ×黄い、紫い、水色い
臨界期仮説
• 「言語獲得能力には有効な期間(臨界期)があ
  り、だいたい12歳頃まで」という仮説
 – ジーニーの事例
  • 13歳まで監禁され、言葉を話せないまま暮らす
  • その後救出され、言葉を教えられた
  • が、十分な言葉を話せるようにはならなかった
• 例によって、模倣説的には具合悪い
 – 真似して身につくなら、大人にも出来るはず
 – 出来なくなる→脳に何か変化→やっぱり生得!?
臨界期ってほんとにあるの?
• 臨界期を実証する事例が少ない
 – 「12歳くらいまで言葉を話す機会がなかった」ケースな
   んてそうそうない
 – わずかな例では、別に固有の原因がなかったとは言えない
• 実験してみよう!
 – 乳飲み子をたくさん用意
 – 外界から完全に遮断して育てる
 – それぞれ言葉を教え始める年齢を決めておく
 – 言葉を身につけられなかった年齢が臨界期
   • って、そんな実験できるわけない……gkbr
実験しちゃった人
• フリードリヒ2世(1194-1250)
 – 神聖ローマ皇帝/シチリゕ王
   • 先進的な゗スラム文化に触れて育つ           [Wikipedia より]


   • 暗黒時代の西欧において、科学的視点をもった専制君主
• 「言葉を教えず育てた子供はどんな言葉を話すよ
  うになるのだろう?」
 – やってみた→全員死亡
 – ソースは?
   • 同時代の修道士で史家だった Salimbene が書き残したわず
     かな記録が遺っているのみ(っぽい)
生得説
• 「ヒトの脳には生まれつき『言語機能』
  がある」とする仮説
 – だから、かんたんに言語獲得できて、
 – 乏しいデータでもOK!
  • ゗ンプットの違いに寄らず、個体差が小さい
 – 大人になるとその機能に変化が生じて、臨界
   期となり、
 – そして、ヒト以外の生き物は言語を話せない。
言語機能
• 「言語機能」は、きっと次のようなもの
  (もしあるとすれば)
 – 言語の獲得がとても楽にできて、
 – でも、特定の言語に特化していないもの
言語の共通(普遍的)ルール
• 「言語機能=言語の共通ルール」という
  ことにしてみよう
 – 必要なのは差分だけ   ←ちょっと楽?
 – どんな言語にも対応できる   ←ほんとかな?


• でも「言語の共通ルール」なんてあるの
  かな? あるとしても、それって何?
ぷちまとめ
• 言語獲得における生得説
 – ヒトの脳には生まれつき「言語機能」がある
 – あくまで仮説
  • 肯定派も否定派もいっぱいいる
 – 生得説を裏付ける(と言われる)現象は他にも
  • ピジンとクレオール
  • 失語症
  • 今回はやらないけどね
まずは「文法」から
「文法」って?
• 文法=語を並べて文を作るルール
• 文法を組み立てる部品:
 – 語、単語=(定義してくれてない)
 – 句=意味のある、ひとまとまりの語の並び
 – 節=主語と述部のある句
 – 範疇=語や句や節の、共通した特性。品詞とか
 – 文=(トートロジーではない明確な定義をしてる
   本が見つからなかった……)
  • 「文法」によって違うけど、だいたいこんな感じ
「文法」にもいろいろある
• 規範文法
 – 望ましい(正しい)文が満たすべき文法
• 記述文法
 – 現実の文からルールを抽出して作った文法
• 伝統文法/学校文法
 – 「5文型」みたいなやつ。語学学習のための文法
• 形式文法/文脈自由文法
 – NLPで「文法」というとこのへん
普遍文法
• 普遍文法=普遍的な語の並べ方のルール
• 「普遍文法」というゕ゗デゕは昔から
 – ロジャー・ベーコン(13世紀)
  • フランチェスコ派の修道士
 – あらゆる言語は共通の文法を元とする
  • ラテン語メ゗ンで考えれば良かった時代
普遍文法+生得説
• 「普遍文法」を「生得説」に組み合わせると、
 – できるだけ幅広い文法で、
  • 言語獲得が楽になるように
 – できるだけ狭い文法がいい。
  • すべての言語に普遍的で、かつ
  • 生得的に持っていそうなくらい

• って、なんかムリゲーっぽいんですけど。
 – 日本語と英語って語順からして違うし!
グリーンバーグによる類型論
       (1960s)
• 30言語サンプルについて、語順のパターン
  を調査
 – SVO タ゗プの言語は必ず前置詞を持つ
 – SOV タ゗プの言語は必ず後置詞を持つ
  • 後置詞=日本語の助詞

• このような不変性が数多く見つかる
 – 言語の文法には何か必然性がある!
• 「普遍文法」は本当にあるかも!?
まずは「文法」を表わそう
• 文法を書き表す「要件」
 – 文の文法が正しいかチェックできる
 – 文の文法が間違っているかチェックできる
 – 文の曖昧さがチェックできる
• どんな表記方法なら、
  これらの要件を満たすことができる?
文の曖昧さ
• 「黒い瞳の大きな女の子」は
  どれでしょう?
「黒い瞳の大きな女の子」
「黒い瞳の大きな女の子」
                        [ [黒い 瞳の] 大きな 女の子]




                           [黒い [瞳の 大きな] 女の子]
[ [ [黒い 瞳の] 大きな] 女の子]
長距離の依存性
• 遠い位置にある語が結びついている
 – If either the girl eats ice cream or the girl
   eats candy, then the boy eats hot dogs.
    If
        either
            the girl eats ice cream
        or
            the girl eats candy,
    then
        the boy eats hot dogs.
どちらも文の構造の問題
• 黒い瞳の大きな女の子
  – [ [ [黒い 瞳の] 大きな] 女の子]
  – [ [黒い 瞳の] 大きな 女の子]
  – [黒い [瞳の 大きな] 女の子]
• If either ...
      If
             either
                 the girl eats ice cream
             or
                 the girl eats candy,
      then
             the boy eats hot dogs.
句構造
• どのような句のまとまりで文が出来てい
  るかを、樹形図で表す




   黒い   瞳の   大きな   女の子
句構造
• どのような句のまとまりで文が出来てい
  るかを、樹形図で表す




If                                       then
                                                      the boy eats hot dogs
 either                    or
      the girl eats ice cream   the girl eats candy
統語範疇
• 句(語のまとまり)を範疇に分ける
 – NP : 名詞句(全体として名詞のように扱える)
 – VP : 動詞句(全体として動詞のように扱える)
 – S : 文または節(主語と述部を持つ)
 – ……
 – 品詞も含むので、ややこしい
  • N:名詞、V:動詞、Det:冠詞、……
句構造+統語範疇
• “This is a pen.” を句構造で表す


               S

                   VP
        NP
                        NP

        N     V    Det       N

       This   is    a        pen
句構造規則
• Sからたどって、句構造を「生成」する
     – 句構造の枝分かれを「書き換え」とみなす
                                                     句構造規則
        S                          S
                                                     S   → NP VP
                              NP       VP
            VP                                       VP → V NP
NP                            NP   V        NP
                 NP                                  NP → N
                              N    V        NP
 N     V    Det       N       N    V    Det      N
                                                     NP → Det N

                                                     品詞 → 単語
This   is    a        pen   This   is   a     pen
句構造文法(形式文法)
• このような句構造規則によって記述され
  る「文法」
                                                     句構造規則
        S                          S
                                                     S   → NP VP
                              NP       VP
            VP                                       VP → V NP
NP                            NP   V        NP
                 NP                                  NP → N
                              N    V        NP
 N     V    Det       N       N    V    Det      N
                                                     NP → Det N

                                                     品詞 → 単語
This   is    a        pen   This   is   a     pen
ぷちまとめ
• 文法は、文の構造とルールで表せる
 – 文の構造 → 句構造
 – 語を並べるルール → 句構造規則
• 句構造文法は「文法」としてまだ力不足
 – 文の文法が正しいかチェックできる?
  • ものすごく頑張ればできる
    (チューリングマシン!)
  • ただし、句構造規則が超複雑になる
生成文法へのアプローチ
ノーム・チョムスキー(1928-)
• 「帰納的」になりがちな言語学に不満
 – 結果があって、そこから法則を読み取る
ノーム・チョムスキー(1928-)
• 自然科学とは「演繹的」なもの
 – 前提があって、そこから全てを論理的に導く



         言語学は
         生物学の一分野だ!
次回予告
• 普遍文法は本当にあるのか!?
 – いやいやその前に、普遍文法を表現するための
   「文法」がいるよね
• チョムスキーの野望に振り回される人達!
 – 敵も味方もみんな涙目
• ぶっちゃけ、生成文法って役に立つの?
 – えーと、とりあえず刺激的でおもしろいよ!
参考文献
•   黒田龍之助「はじめての言語学」, 2004

•   橋爪大三郎「はじめての構造主義」, 1988

•   加賀野井秀一「20世紀言語学入門 – 現代思想の原点」, 1995

•   丸山圭三郎「言葉とは何か」, 1994

•   池上嘉彦「記号論への招待」, 1984

•   中島文雄「英語の構造」, 1980

•   中井悟/上田雅信「生成文法を学ぶ人のために」, 2004

•   大津由紀雄/他「言語研究入門 -生成文法を学ぶ人のために」, 2002

•   A. ラドフォード「入門ミニマリスト統語論」, 2004/2006

•   M. C. ベ゗カー「言語のレシピ – 多様性にひそむ普遍性をもとめて」, 2001/2003

•   福井直樹「自然科学としての言語学 - 生成文法とは何か」, 2001

•   萩原裕子「脳にいどむ言語学」, 1998

•   L. ボロデゖツキー「言語で変わる思考」(日経サ゗エンス 2011年5月号)
•   M. D. Hauser/N. Chomsky/W. T. Fitch “The Faculty of Language: What Is It, Who Has It, and How Did It Evolve?”, 2002

•   M. Tomasello “What kind of evidence could refute the UG hypothesis?”, 2004

•   S. Pinker/R. Jackendoff “The faculty of language: what’s special about it?”, 2005

•   S. Pinker “Language Instinct – How the Mind Creates Language”, 1994 (邦題「言語を生み出す本能」, 1995)

Weitere ähnliche Inhalte

Was ist angesagt?

2021 10-07 kdd2021読み会 uc phrase
2021 10-07 kdd2021読み会 uc phrase2021 10-07 kdd2021読み会 uc phrase
2021 10-07 kdd2021読み会 uc phraseTatsuya Shirakawa
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)Deep Learning JP
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習Preferred Networks
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~Takuya Ono
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有Naoaki Okazaki
 
論文紹介 wav2vec: Unsupervised Pre-training for Speech Recognition
論文紹介  wav2vec: Unsupervised Pre-training for Speech Recognition論文紹介  wav2vec: Unsupervised Pre-training for Speech Recognition
論文紹介 wav2vec: Unsupervised Pre-training for Speech RecognitionYosukeKashiwagi1
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?Masanao Ochi
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)Tatsuya Yokota
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由tancoro
 
SAT/SMTソルバの仕組み
SAT/SMTソルバの仕組みSAT/SMTソルバの仕組み
SAT/SMTソルバの仕組みMasahiro Sakai
 
指数時間アルゴリズム入門
指数時間アルゴリズム入門指数時間アルゴリズム入門
指数時間アルゴリズム入門Yoichi Iwata
 
Non-autoregressive text generation
Non-autoregressive text generationNon-autoregressive text generation
Non-autoregressive text generationnlab_utokyo
 
黒い目の大きな女の子:構文から意味へ
黒い目の大きな女の子:構文から意味へ黒い目の大きな女の子:構文から意味へ
黒い目の大きな女の子:構文から意味へHiroshi Nakagawa
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
文脈自由文法の話
文脈自由文法の話文脈自由文法の話
文脈自由文法の話kogecoo
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門joisino
 

Was ist angesagt? (20)

2021 10-07 kdd2021読み会 uc phrase
2021 10-07 kdd2021読み会 uc phrase2021 10-07 kdd2021読み会 uc phrase
2021 10-07 kdd2021読み会 uc phrase
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
 
IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~
 
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
 
論文紹介 wav2vec: Unsupervised Pre-training for Speech Recognition
論文紹介  wav2vec: Unsupervised Pre-training for Speech Recognition論文紹介  wav2vec: Unsupervised Pre-training for Speech Recognition
論文紹介 wav2vec: Unsupervised Pre-training for Speech Recognition
 
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由Cosine Based Softmax による Metric Learning が上手くいく理由
Cosine Based Softmax による Metric Learning が上手くいく理由
 
SAT/SMTソルバの仕組み
SAT/SMTソルバの仕組みSAT/SMTソルバの仕組み
SAT/SMTソルバの仕組み
 
音声認識と深層学習
音声認識と深層学習音声認識と深層学習
音声認識と深層学習
 
目指せグラフマスター
目指せグラフマスター目指せグラフマスター
目指せグラフマスター
 
指数時間アルゴリズム入門
指数時間アルゴリズム入門指数時間アルゴリズム入門
指数時間アルゴリズム入門
 
Non-autoregressive text generation
Non-autoregressive text generationNon-autoregressive text generation
Non-autoregressive text generation
 
黒い目の大きな女の子:構文から意味へ
黒い目の大きな女の子:構文から意味へ黒い目の大きな女の子:構文から意味へ
黒い目の大きな女の子:構文から意味へ
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
文脈自由文法の話
文脈自由文法の話文脈自由文法の話
文脈自由文法の話
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 

Mehr von Shuyo Nakatani

画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15Shuyo Nakatani
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networksShuyo Nakatani
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)Shuyo Nakatani
 
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Shuyo Nakatani
 
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?人工知能と機械学習の違いって?
人工知能と機械学習の違いって?Shuyo Nakatani
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRShuyo Nakatani
 
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRShuyo Nakatani
 
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...Shuyo Nakatani
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章Shuyo Nakatani
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章Shuyo Nakatani
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyoShuyo Nakatani
 
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPZipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPShuyo Nakatani
 
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...Shuyo Nakatani
 
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014Shuyo Nakatani
 
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測Shuyo Nakatani
 
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5Shuyo Nakatani
 
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013Shuyo Nakatani
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013Shuyo Nakatani
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門Shuyo Nakatani
 

Mehr von Shuyo Nakatani (20)

画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
画像をテキストで検索したい!(OpenAI CLIP) - VRC-LT #15
 
Generative adversarial networks
Generative adversarial networksGenerative adversarial networks
Generative adversarial networks
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
 
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
 
人工知能と機械学習の違いって?
人工知能と機械学習の違いって?人工知能と機械学習の違いって?
人工知能と機械学習の違いって?
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
 
ドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoRドラえもんでわかる統計的因果推論 #TokyoR
ドラえもんでわかる統計的因果推論 #TokyoR
 
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
 
言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo言語処理するのに Python でいいの? #PyDataTokyo
言語処理するのに Python でいいの? #PyDataTokyo
 
Zipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLPZipf? (ジップ則のひみつ?) #DSIRNLP
Zipf? (ジップ則のひみつ?) #DSIRNLP
 
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
ACL2014 Reading: [Zhang+] "Kneser-Ney Smoothing on Expected Count" and [Pickh...
 
ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014ソーシャルメディアの多言語判定 #SoC2014
ソーシャルメディアの多言語判定 #SoC2014
 
猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測猫に教えてもらうルベーグ可測
猫に教えてもらうルベーグ可測
 
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5アラビア語とペルシャ語の見分け方 #DSIRNLP 5
アラビア語とペルシャ語の見分け方 #DSIRNLP 5
 
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013数式を綺麗にプログラミングするコツ #spro2013
数式を綺麗にプログラミングするコツ #spro2013
 
ノンパラベイズ入門の入門
ノンパラベイズ入門の入門ノンパラベイズ入門の入門
ノンパラベイズ入門の入門
 

Kürzlich hochgeladen

新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 

Kürzlich hochgeladen (11)

新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 

はじめての生成文法・前編 - #tokyonlp 5