東京大学 大学院総合文化研究科 言語情報科学専攻 大関研究室

JP / EN

業績/Publications

国際会議

  • Kohei Kajikawa, Ryo Yoshida, Yohei Oseki. 2024. Dissociating Syntactic Operations via Composition Count, Proceedings of the Meeting of the Cognitive Science Society (CogSci), Long Paper, xxx-xxx.
  • Tatsuki Kuribayashi, Yohei Oseki, Timothy Baldwin. 2024. Psychometric Predictive Power of Large Language Models, Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics (NAACL), Findings, xxx-xxx.
  • Taiga Someya, Yushi Sugimoto, Yohei Oseki. 2024. JCoLA: Japanese Corpus of Linguistic Acceptability, Proceedings of the International Conference on Language Resources and Evaluation (LREC) and the International Conference on Computational Linguistics (COLING), Long Paper, xxx-xxx.
  • Taiga Someya, Ryo Yoshida, Yohei Oseki. 2024. Targeted Syntactic Evaluation on the Chomsky Hierarchy, Proceedings of the International Conference on Language Resources and Evaluation (LREC) and the International Conference on Computational Linguistics (COLING), Long Paper, xxx-xxx.
  • Yuto Harada, Yohei Oseki. 2024. Cognitive Information Bottleneck: Extracting Minimal Sufficient Cognitive Language Processing Signals, Proceedings of the International Conference on Language Resources and Evaluation (LREC) and the International Conference on Computational Linguistics (COLING), Long Paper, xxx-xxx.
  • Akiyo Fukatsu, Yuto Harada, Yohei Oseki. 2024. Learning Bidirectional Morphological Inflection Like Humans, Proceedings of the International Conference on Language Resources and Evaluation (LREC) and the International Conference on Computational Linguistics (COLING), Long Paper, xxx-xxx.
  • Miyu Oba, Akari Haga, Akiyo Fukatsu, Yohei Oseki. 2023. BabyLM Challenge: Curriculum learning based on sentence complexity approximating language acquisition, Proceedings of the BabyLM Challenge at the 27th Conference on Computational Natural Language Learning (CoNLL), Extended Abstract, 290-297.
  • Satoru Ozaki, Yohei Oseki. 2023. CANDS: A Computational Implementation of Collins and Stabler (2016), Proceedings of the Society for Computation in Linguistics (SCiL), 47-68.
  • Hiroshi Noji*, Yohei Oseki*. 2023. How Much Syntactic Supervision is "Good Enough"?, Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics (EACL), Findings, 2300–2305. (* denotes equal contribution)
  • Taiga Someya, Yohei Oseki. 2023. JBLiMP: Japanese Benchmark of Linguistic Minimal Pairs, Proceedings of the 17th Conference of the European Chapter of the Association for Computational Linguistics (EACL), Findings, 1581–1594.
  • Tatsuki Kuribayashi, Yohei Oseki, Ana Brassard, Kentaro Inui. 2022. Context Limitations Make Neural Language Models More Human-Like, Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP), Long Paper, 10421-10436.
  • Ryo Yoshida, Yohei Oseki. 2022. Composition, Attention, or Both?, Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP), Findings, 5822-5834.
  • Ryo Yoshida, Yohei Oseki. 2022. Learning Argument Structures with Recurrent Neural Network Grammars, Proceedings of the Society for Computation in Linguistics (SCiL), 101-111.
  • Shinnosuke Isono, Takuya Hasegawa, Kohei Kajikawa, Koichi Kono, Shiho Nakamura, Yohei Oseki. 2022. Formalizing Argument Structures with Combinatory Categorial Grammar, Lecture Notes in Computer Science (LNCS), xxx-xxx.
  • Ryo Yoshida, Hiroshi Noji, Yohei Oseki. 2021. Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars, Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), Short Paper, 2964-2973.
  • Hiroshi Noji, Yohei Oseki. 2021. Effective Batching for Recurrent Neural Network Grammars, Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics (ACL), Findings, 4340-4352.
  • Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, Kentaro Inui. 2021. Lower Perplexity is Not Always Human-Like, Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics (ACL), Long Paper, 5203-5217.
  • Yohei Oseki, Masayuki Asahara. 2020. Design of BCCWJ-EEG: Balanced Corpus with Human Electroencephalography, Proceedings of the International Conference on Language Resources and Evaluation (LREC), 189-194.
  • Yohei Oseki, Alec Marantz. 2020. Modeling Morphological Processing in Human Magnetoencephalography, Proceedings of the Society for Computation in Linguistics (SCiL), 209-219.
  • Carmen Saldana, Yohei Oseki, Jennifer Culbertson. 2019. Do cross-linguistic patterns of morpheme order reflect a cognitive bias?, Proceedings of the Meeting of the Cognitive Science Society (CogSci), Long Paper, 994-1000.
  • Yohei Oseki, Charles Yang, Alec Marantz. 2019. Modeling Hierarchical Syntactic Structures in Morphological Processing, Proceedings of the Workshop on Cognitive Modeling and Computational Linguistics (CMCL), 43-52.
  • Yohei Oseki, Yasutada Sudo, Hiromu Sakai, Alec Marantz. 2019. Inverting and Modeling Morphological Inflection, Proceedings of the 16th Workshop on Computational Research in Phonetics, Phonology, and Morphology (SIGMORPHON), 170-177.

国際ジャーナル

  • Tatsuya Haga, Yohei Oseki, Tomoki Fukai. 2023. Unified neural representation model for physical space and linguistic concepts, bioRxiv doi:10.1101/2023.05.11.540307.
  • Yushi Sugimoto, Ryo Yoshida, Hyeonjeong Jeong, Masatoshi Koizumi, Jonathan Brennan, Yohei Oseki. 2023. Localizing Syntactic Composition with Left-Corner Recurrent Neural Network Grammars, Neurobiology of Language.
  • Shingo Shimoda, Lorenzo Jamone, Dimitri Ognibene, Takayuki Nagai, Alessandra Sciutti, Alvaro Costa-Garcia, Yohei Oseki, Tadahiro Taniguchi. 2022. What is the role of the next generation of cognitive robotics?, Advanced Robotics 36, 3-16.
  • Carmen Saldana, Yohei Oseki, Jennifer Culbertson. 2021. Cross-linguistic patterns of morpheme order reflect cognitive biases: An experimental study of case and number morphology, Journal of Memory and Language 118, 104204.
  • Yohei Oseki, Alec Marantz. 2020. Modeling Human Morphological Competence, Frontiers in Psychology 11, 513740.
  • Graham Flick*, Yohei Oseki*, Amanda Kczmarek, Meera Al Kaabi, Alec Marantz, Liina Pylkkänen. 2018. Building words and phrases in the left temporal lobe, Cortex 106, 213-236. (* denotes equal contribution)
  • Tal Linzen, Yohei Oseki. 2018. The reliability of acceptability judgments across languages, Glossa 3, 100.

書籍

  • 大関洋平. 2024. 『AIに人間らしく言葉を使わせるためには?』. 光文社新書.
  • 大関洋平. 2024. 『AIから学ぶ言語学入門』. ひつじ書房.
  • 宮尾祐介, 大関洋平, 坂地泰紀. 2024. 『自然言語処理から学術・実社会応用へ』. サイエンス社.
  • 大関洋平. 2024. 「自然言語処理/大規模言語モデル」, 『論点・言語学』. ミネルヴァ書房.
  • 大関洋平. 2024. 「計算心理言語学」, 『文処理研究入門』. くろしお出版.
  • 大関洋平. 2023. 「人間らしい言語処理モデルの開発」, 『AIから読み解く社会』, 135-148. 東京大学出版会.
  • Yohei Oseki. 2023. Human language processing in comparative computational psycholinguistics, Issues in Japanese Psycholinguistics from Comparative Perspectives, Volume 1: Cross-Linguistic Studies, Masatoshi Koizumi (ed.), 269-288. De Gruyter Mouton.

学会発表

  • 直江大河, 原田宥都, 前田ありさ, 森田早織, 中村啓信, 大関洋平, 沖村宰. 2024. 大規模言語モデルへの刈り込みによる精神疾患の思考障害シミュレーション, 言語処理学会第30回年次大会, 243-248.
  • 原田宥都, 前田ありさ, 森田早織, 大関洋平. 2024. 神経科学に着想を得たシナプス刈り込みによる大規模言語モデルの原理解明, 言語処理学会第30回年次大会, 763-767.
  • 原田宥都, 大関洋平. 2024. 認知フィードバック:眼球運動・脳波による大規模言語モデルの強化学習, 言語処理学会第30回年次大会, 1887-1891.
  • 山下陽一郎, 原田宥都, 大関洋平. 2024. 早押しクイズにおける超次単語予測の認知モデリング, 言語処理学会第30回年次大会, 1892-1896.
  • 染谷大河, 大関洋平. 2024. 認知ファインチューニング:眼球運動による大規模言語モデルのファインチューニング, 言語処理学会第30回年次大会, 1902-1907.
  • 三輪敬太, 吉田遼, 大関洋平. 2024. 工学的性能と人間らしさの関係はトークン分割に依存する, 言語処理学会第30回年次大会, 1908-1913.
  • 栗林樹生, 上田亮, 吉田遼, 大関洋平, Ted Briscoe, Timothy Baldwin. 2024. どのような言語モデルが不可能な言語を学習してしまうのか?ー語順普遍を例にー, 言語処理学会第30回年次大会, 1914-1919.
  • 梶川康平, 窪田悠介, 大関洋平. 2024. 統語変形はコミュニケーションから創発するのか?, 言語処理学会第30回年次大会, 2233-2237.
  • 芳賀あかり, 菅原朔, 深津聡世, 大羽未悠, 大内啓樹, 渡辺太郎, 大関洋平. 2024. 小規模言語モデルによる子供の過剰一般化のモデリング, 言語処理学会第30回年次大会, 2505-2509.
  • 岸川大航, 大関洋平. 2024. 逆強化学習による文章における人間らしさの推定, 言語処理学会第30回年次大会, 2522-2526.
  • 前田晃弘, 鳥居拓馬, 日髙昇平, 大関洋平. 2024. 部分空間法に着想を得たTransformerのアテンションヘッドにおける特徴抽出, 言語処理学会第30回年次大会, 2714-2719.
  • 栗林樹生, 大関洋平, Timothy Baldwin. 2024. 大規模言語モデルの文処理は人間らしいのか?, 言語処理学会第30回年次大会, 2823-2828.
  • 吉田遼, 染谷大河, 大関洋平. 2024. Tree-Planted Transformer: 統語的大規模言語モデルの構築に向けて, 言語処理学会第30回年次大会, 2829-2834.
  • 山田裕真, 染谷大河, 大関洋平. 2024. 小規模言語モデルによる統語パラメータの獲得, 言語処理学会第30回年次大会, 2841-2846.
  • 大羽未悠, 大関洋平, 深津聡世, 芳賀あかり, 大内啓樹, 渡辺太郎, 菅原朔. 2024. 言語モデルの文法知識評価における間接肯定証拠の分析, 言語処理学会第30回年次大会, 2847-2851.
  • 森田早織, 大関洋平. 2023. ブローカ・ウェルニッケ失語症話者のコーパスを用いた形容詞比較級の誤用分析, 日本言語学会第167回大会.
  • 大羽未悠, 芳賀あかり, 深津聡世, 大関洋平. 2023. 言語獲得過程を模倣した文の複雑さに基づくカリキュラム学習, NLP若手の会(YANS)第18回シンポジウム.
  • 山田裕真, 染谷大河, 大関洋平. 2023. 統語パラメータの生得性:言語モデルからの知見, NLP若手の会(YANS)第18回シンポジウム.
  • 片野悠史, 深津聡世, 大関洋平. 2023. 小規模データによる言語モデルの統語獲得:バリエーションセットを用いたデータ効率化, NLP若手の会(YANS)第18回シンポジウム.
  • 山下陽一郎, 原田宥都, 大関洋平. 2023. 早押しクイズでの先読みにおける眼球運動のモデリング, NLP若手の会(YANS)第18回シンポジウム.
  • 芳賀達也, 大関洋平, 深井朋樹. 2023. グリッド細胞と概念細胞の統合計算論モデル, 日本神経科学大会第46回大会.
  • 染谷大河, 石垣達也, 大関洋平, 永田亮, 高村大也. 2023. サッカーイベント予測における選手ベクトルの利用, 人工知能学会第37回全国大会, 1875-1878.
  • 中石海, 吉田遼, 福島孝治, 大関洋平. 2023. 自然言語と確率文脈依存文法における相互情報量,日本物理学会2023年春季大会.
  • 吉田遼, 大関洋平. 2023. 統語的構成や自己注意を持つ言語モデルは「人間らしい」のか?, 言語処理学会第29回年次大会, 674-679.
  • 磯野真之介*, 梶川康平*, 吉田遼*, 大関洋平. 2023. 極小主義に動機づけられた統語的教示に基づく言語モデル, 言語処理学会第29回年次大会, 952-957.(*は同等の貢献を表す)
  • 深津聡世*, 原田宥都*, 大関洋平. 2023. 深層学習モデルを用いた双方向形態屈折の検証, 言語処理学会第29回年次大会, 1627-1631.(*は同等の貢献を表す)
  • 原田宥都, 大関洋平. 2023. 情報ボトルネック法を用いた視線・脳情報デコード手法の提案, 言語処理学会第29回年次大会, 1632-1636.
  • 菊池理紗, 大関洋平. 2023. 公的なメールに対するBERTを用いたセンチメント分析, 言語処理学会第29回年次大会, 1708-1712.
  • 杉本侑嗣, 吉田遼, 鄭嫣婷, 小泉政利, Jonathan Brennan, 大関洋平. 2023. 左隅型再帰的ニューラルネットワーク文法による日本語fMRIデータのモデリング, 言語処理学会第29回年次大会, 2594-2599.
  • 山下陽一郎, 原田宥都, 大関洋平. 2023. 人間らしい予測処理機構を取り入れた質問応答モデルの提案: 早押しクイズのパラレル問題を題材として, 言語処理学会第29回年次大会, 2891-2896.
  • 染谷大河, 吉田遼, 中石海, 大関洋平. 2023. チョムスキー階層とニューラル言語モデル, 言語処理学会第29回年次大会, 2973-2977.
  • 梶川康平, 吉田遼, 大関洋平. 2023. CCGによる日本語文処理のモデリング, 言語処理学会第29回年次大会, 2984-2989.
  • 大黒達也, Geraint Wiggins, 堀井隆斗, 大関洋平, 長井志江. 2022. 脳の統計学習に基づく創造性と認知個性の発達的基盤の計算論的理解, 日本発達神経科学会第11回学術集会.
  • 深津聡世, 原田宥都, 関澤瞭, 田村鴻希, 大関洋平. 2022. 深層学習モデルによる日本語動詞の双方向形態屈折の検証, 日本言語学会第165回大会, 193-199.
  • 深津聡世, 大関洋平. 2022. Testing Bidirectional Morphological Inflection with Tolerance Principle, 言語科学会第23回年次国際大会, 37-40.
  • 染谷大河, 大関洋平. 2022. JBLiMP: 言語モデルの統語的評価のための日本語データセット, 国立国語研究所ワークショップ「日本語における評価用データセットの構築と利用性の向上」.
  • 山下陽一郎, 原田宥都, 大関洋平. 2022. 早押しクイズにおける予測処理:機械の言語処理と人間の言語処理と, NLP若手の会(YANS)第17回シンポジウム.
  • 染谷大河*, 吉田遼*, 中石海*, 濱西祐之介*, 大関洋平. 2022. チョムスキー階層とニューラル言語モデル, NLP若手の会(YANS)第17回シンポジウム.(*は同等の貢献を表す)
  • 芳賀達也, 大関洋平, 深井朋樹. 2022. 物理空間と意味空間におけるベクトルベースナビゲーションを統合する嗅内皮質の神経表現モデル, 日本神経科学大会第45回大会.
  • 中村梓甫, 染谷大河, 原田宥都, 持橋大地, 大関洋平. 2022. BERTによる日本文学作品の著者分類とその分類根拠の分析, 情報処理学会第252回自然言語処理研究会, 2022-NL-252, 1-6.
  • 能地宏*, 大関洋平*. 2022. どれほどの統語的教示が必要十分なのか?, 言語処理学会第28回年次大会, 976-980.(*は同等の貢献を表す)
  • 吉田遼, 大関洋平. 2022. トランスフォーマー文法, 言語処理学会第28回年次大会, 448-452.
  • 栗林樹生, 大関洋平, Ana Brassard, 乾健太郎. 2022. ニューラル言語モデルの過剰な作業記憶, 言語処理学会第28回年次大会, 1530-1535.
  • 石月由紀子, 栗林樹生, 松林優一郎, 大関洋平. 2022. 情報量に基づく日本語項省略の分析, 言語処理学会第28回年次大会, 442-447.
  • 染谷大河, 大関洋平. 2022. 日本語版CoLAの構築, 言語処理学会第28回年次大会, 1872-1877.
  • 染谷大河, 進藤裕之, 大関洋平. 2022. 情報抽出技術を用いたJCoLAの拡張に向けて, 言語処理学会第28回年次大会, 290-295.
  • 染谷大河, 大関洋平. 2022. 日本語版CoLAの構築の舞台裏, 言語処理学会ワークショップ「日本語における評価用データセットの構築と利用性の向上」.
  • 能地宏, 大関洋平. 2021. 再帰的ニューラルネットワーク文法の並列化, 言語処理学会第27回年次大会, 937-941.
  • 吉田遼, 能地宏, 大関洋平. 2021. 再帰的ニューラルネットワーク文法による人間の文処理のモデリング, 言語処理学会第27回年次大会, 273-278.
  • 栗林樹生, 大関洋平, 伊藤拓海, 吉田遼, 浅原正幸, 乾健太郎. 2021. 予測の正確な言語モデルがヒトらしいとは限らない, 言語処理学会第27回年次大会, 267-272.
  • 栗林樹生, 大関洋平, 伊藤拓海, 吉田遼, 浅原正幸, 乾健太郎. 2021. 日本語の読みやすさに対する情報量に基づいた統一的な解釈, 言語処理学会第27回年次大会, 723-728.
  • 高橋優太, 大関洋平, 酒井弘, 幕内充, 大須理英子. 2020. LSTMとMEGを用いた脳内言語処理メカニズムの推定, 日本神経回路学会第30回全国大会.
  • 吉田遼, 能地宏, 大関洋平. 2020. 再帰的ニューラルネットワーク文法によるヒト文処理のモデリング, 日本言語学会第161回大会, 326-332.

招待講演

  • 大関洋平. 2024. 言語学から見た大規模言語モデル, 東海英語研究会.
  • 大関洋平. 2024. 言語学から見た大規模言語モデル, 関西言語学会第49回年次大会.
  • 大関洋平. 2023. 深層学習時代の統語論, 日本英語学会シンポジウム「深層学習時代の言語研究」.
  • 大関洋平. 2023. 深層学習時代の統語論, 上智大学コロキアム.
  • 大関洋平. 2023. 認知モデリングと自然言語処理, NLP若手の会(YANS)第18回シンポジウム.
  • 大関洋平. 2023. 言語処理の計算認知神経科学に向けて, 早稲田大学シンポジウム「人間の記号処理能力の基盤を探る」.
  • 大関洋平. 2023. 深層学習時代の言語学, 甲南英文学会第39回年次大会.
  • 大関洋平. 2023. 深層学習時代の統語論, ノートルダム清心女子大学コロキアム.
  • 大関洋平. 2023. 深層学習時代の心理言語学, 言語処理学会ワークショップ「深層学習時代の計算言語学」.
  • 大関洋平. 2023. 認知・脳情報処理による人間らしい言語処理モデルの開発, 昭和大学発達障害医療研究所.
  • Yohei Oseki. 2023. Building machines that process natural language like humans, プリンストン大学コロキアム.
  • Yohei Oseki. 2023. Building machines that process natural language like humans, ミシガン州立大学コロキアム.
  • Yohei Oseki. 2022. Building machines that process natural language like humans, ラトガーズ大学コロキアム.
  • Yohei Oseki. 2022. Human language processing in comparative computational psycholinguistics, 東国大学校コロキアム.
  • 大関洋平. 2022. 認知・脳科学から見たNLPの再現性, 言語処理学会ワークショップ「NLPにおける再現性」.
  • 大関洋平. 2021. 容認性判断アーカイブの開発と応用, 日本言語学会シンポジウム「データベースをつくる・つかう:課題と展望」.
  • 大関洋平. 2021. 認知・脳情報処理による人間らしい言語処理モデルの開発, 生理学研究所シンポジウム「情動の脳科学的理解に基づく人文系学問の再構築」.
  • 大関洋平. 2021. 容認生判断の諸相, 大阪大学コロキアム.
  • Yohei Oseki. 2021. Human language processing in comparative computational psycholinguistics, Issues in Japanese Psycholinguistics from Comparative Perspectives (IJPCP).
  • Yohei Oseki. 2021. Reverse-engineering human language processing, Joint Workshop on Linguistics & Language Processing (JWLLP).
  • Yohei Oseki. 2021. Building machines that process natural language like humans, 奈良先端科学技術大学院大学 コロキアム.
  • Yohei Oseki. 2020. Building machines that process natural language like humans, Logic and Engineering of Natural Language Semantics (LENLS).
  • Yohei Oseki. 2020. What is the role of language in cognitive robotics?, What is the role of next generation of cognitive robotics?.
  • 大関洋平. 2020. 心理言語学における計算論的転回, 慶應義塾大学計算論的精神医学コロキアム.

受賞

  • 優秀賞, 言語処理学会 第30回年次大会, 2024.
  • 委員特別賞×3, 言語処理学会 第30回年次大会, 2024.
  • スポンサー賞(富士通賞), 言語処理学会 第30回年次大会, 2024.
  • 学生奨励賞(染谷大河), 人工知能学会 2023年度全国大会, 2023.
  • 優秀発表賞(中石海), 日本物理学会 2023年春季大会, 2023.
  • 一高記念賞(吉田遼), 東京大学 大学院総合文化研究科, 2023.
  • 奨励賞(山下陽一郎), NLP若手の会(YANS)第17回シンポジウム, 2022.
  • 委員特別賞, 言語処理学会 第28回年次大会, 2022.
  • 最優秀賞, 言語処理学会 第27回年次大会, 2021.
  • 委員特別賞, 言語処理学会 第27回年次大会, 2021.
  • 若手奨励賞(吉田遼), 言語処理学会 第27回年次大会, 2021.
  • グッドプラクティス総長表彰, 東京大学, 2021.
  • ティーチングアワード, 早稲田大学, 2020.
  • Best Paper Award, Cognitive Modeling and Computational Linguistics (CMCL), 2019.
  • Best Paper Award, Mental Architecture for Processing and Learning of Language (MAPLL), 2016.

記事

報道

東京大学 東京大学 大学院総合文化研究科 理化学研究所 革新知能統合研究センター