人工知能学会 言語・音声理解と対話処理研究会(SLUD)第100回研究会の
   プログラムが決まりましたのでご案内します.
   
   今回は,口頭発表24件,ポスター発表17件が予定されています.
   
   また,今回のSLUDでは以下の100回記念イベントを企画しています.
    招待講演 飯田 仁 先生(東京工科大学名誉教授・SLUD初代主査)
         「これからもまだ続く“対話の道”~SLUD発足の周辺とSLUD今後への期待~」
    SLUD100 パネルディスカッション「SLUDのこれから」
   
   発表・聴講は無料ですが,事前参加登録が必須です(2月27日締切).
   懇親会に参加される場合は2月18日までに参加登録をお願いします.
   
   皆様のご参加を心よりお待ち申し上げております.
   
   なお,2月27,28日(SLUDの前々日,前日)に,国立国語研究所で会話関連の
   シンポジウムを連続開催いたします([7]の情報をご覧ください).ご関心の
   ある方は是非こちらも合わせてご参加ください.
   
   
   ====================================================
   [1] 日時・場所
   [2] 資料集
   [3] 参加登録(要事前登録 2月27日〆、懇親会参加の場合は2月18日〆)
   [4] 懇親会
   [5] タイムテーブル
   [6] プログラム
   [7] 会話関連連続イベント
   [8] 問い合わせ先
   ====================================================
   [1] 日時・場所
   ----------------------------------------------------
   第100回 言語・音声理解と対話処理研究会(SLUD)
    
   日時:2024年2月29日(木),3月1日(金)
   会場:国立国語研究所 講堂
       〒190-8561 東京都立川市緑町10-2
       https://www.ninjal.ac.jp/utility/access/
   参加費:無料
   参加資格:特になし(人工知能学会および本研究会非会員の方でも参加可能)
   備考:周辺には飲食店や昼食を購入できる店が少ないため、事前にお昼ごはん  
      を購入してから会場にお越しになることをお薦めします.
   
   ====================================================
   [2] 資料集
   ----------------------------------------------------
   冊子もしくは電子版で提供いたします.
   
      [SLUD研究会登録会員]
           冊子を郵送(発行日:2024年2月20日(火)以降)
           J-STAGEの掲載(発行後1年以内は認証要)も無料で閲覧可能
           認証のための購読者番号やパスワードはオンライン会員情報管理システムログインし
      「学会からのお知らせ」にてご確認ください.
           https://www.jstage.jst.go.jp/browse/jsaislud/-char/ja
       [人工知能学会学生会員]
         電子版(無料)【申込先:https://forms.gle/eK1PYtoNUn3TVzAN9 】
        締切:2月19日(月)
      [上記以外]
          電子版(1,500円)(STORES)
           【通販サイト:https://jsaioffice.stores.jp/ 】(販売開始日:2月20日(火))
          冊子(2,000円,送料,発送手数料,消費税を含む)※申込締切:2月19日(月)
           【申込先:https://forms.gle/eK1PYtoNUn3TVzAN9 】
            ※販売数には限りがございますのでお申し込み順となります.
   
   ====================================================
   [3] 参加登録(要事前登録 2月27日〆、懇親会参加の場合は 2月18日〆)
   ----------------------------------------------------
   
   以下のWebページより事前登録をお願いいたします.
   
       https://www.ai-gakkai.or.jp/sig-system/sigusers/add/slud/slud100
   
   〆切:2月27日(火).先着順 
      懇親会に参加される場合は 2月18日までに参加登録をお願いします.
        
   参加者の上限を150名とさせて頂きます.発表者を除き事前登録の先着順とします.
   上限に達したかどうかはSLUDのウェブサイトでお知らせします.
   
   情報保障等特別なサポートを希望される方はご相談ください.
   可能な範囲で対応致します.
   
   ====================================================
   [4] 懇親会
   ----------------------------------------------------
   
   懇親会に参加される方は、[3]の事前登録フォームよりお申し込みください.
   
    日時:2月29日(木)19:15〜21:45
    場所:ESOLA 立川
    URL:https://www.hotpepper.jp/strJ003624790/
    会費:社会人6000円(予定),学生4500円
   
   ====================================================
   [5] タイムテーブル
   ----------------------------------------------------
   
   ■ 1日目:2月29日(木)
      10:00-10:05 開会挨拶
      10:05-11:45 口頭発表1(4件)
      11:45-13:00 昼休憩
      13:00-13:50 招待講演(飯田仁先生 東京工科大学名誉教授・SLUD初代主査)
      13:50-13:55 休憩
      13:55-15:25 ポスターセッション(17件)
      15:25-15:35 休憩
      15:35-16:50 口頭発表2(3件)
      16:50-16:55 休憩
      16:55-18:35 口頭発表3(4件)
   
   ■  2日目:3月1日(金)
      9:30-11:10  口頭発表4(4件)
      11:10-11:15 休憩
      11:15-12:30 口頭発表5(3件)
      12:30-13:30 昼休憩
      13:30-14:20 パネルディスカッション
      14:20-14:30 休憩
      14:30-16:10 口頭発表6(4件)
      16:10-16:15 休憩
      16:15-17:05 口頭発表7(2件)
      17:05-17:10 閉会挨拶
   
   ====================================================
   [6] プログラム
   ----------------------------------------------------
   
   ■  1日目:2月29日(木)
   
   [10:00-10:05 開会挨拶]
   
   [10:05-11:45 口頭発表1(4件)]
   
   1. モンテカルロ木探索を用いた個人性のある画像キャプション生成
     吉田 司(NTT)、新堀 和紀(NTT/明治大学)、深山 篤(NTT)
   
   2. 大規模言語モデルにより性格特性を反映させた発話生成の評価
     山本 賢太、駒谷 和範(大阪大学)
   
   3. ChatGPT Summarization: A Deep Dive into In-Context Learning Efficacy
     袁 培傑、大野 正樹、橋本 泰一(RevComm Research)
   
   4. コレクティブLLMダイナミクスの数理分析
     岩橋 直人、寺尾 光一郎(岡山県立大学)
   
   [11:45-13:00 昼休憩]
   
   [13:00-13:50 招待講演]
   
   5. 飯田 仁 先生(東京工科大学名誉教授・SLUD初代主査)
    「これからもまだ続く“対話の道”~SLUD発足の周辺とSLUD今後への期待~」
   
   [13:50-13:55 休憩]
   
   [13:55-15:25 ポスターセッション(17件)]
   ※45分のコアタイム制(奇数の番号:13:55〜14:40、偶数の番号:14:40〜15:25 )
   
   6. 個人の主観評価の不確実性や反応バイアスへの対処法
     熊野 史朗(NTT)
   
   7. 次話者指定の有無を区別するTRPを利用した3人会話場面の話者交替予測モデル
     岩立 直也、有本 泰子(千葉工業大学)
   
   8. 日常会話の中のシーンの移行に関する調査
     川端 良子(国立国語研究所)、中野 幹生(C4A研究所)
   
   9. ラジオパーソナリティのエピソードトークに出現する非流暢性要素の特徴―パーソナリティ歴との関連性に着目して―
     木守 翔子、岡本 雅史(立命館大学)
   
   10 .キャラクター性に基づく発話をするチャットボットのためのキャラクターらしさを醸し出す文体的特徴と意図の抽出
     保土沢 朋和、村井 源(はこだて未来大学)
   
   11. 日本手話における手の直線運動の音素の斜め方向に関する分析
     森下 空、堀内 靖雄(千葉大学)、原 大介(豊田工業大学)、黒岩 眞吾(千葉大学)
   
   12. 親子の食事場面での話題内容と脱文脈度
     田中 弥生、小磯 花絵(国立国語研究所)
   
   13. 感動詞「あのね」の分析―『日本語日常会話コーパス』を用いて―
     加藤 恵梨(愛知教育大学)
   
   14. コレクティブLLMsのミクロマクロリンクの多様性
     寺尾 光一郎、岩橋 直人(岡山県立大学)
   
   15. Twitter における印象管理の分析:アカウントを使い分ける絵描きを対象として
     藤田 華奈、坂井田 瑠衣(公立はこだて未来大学)
   
   16. 気まずい沈黙に対処する方法の相互行為分析
     澤田 菜乃、坂井田 瑠衣(公立はこだて未来大学)
   
   17. tracrin2.0: 会話データの視覚表現の整形支援手法の検討
     牧野 遼作(早稲田大学)、菊地 浩平(筑波技術大学)、堀内 隆仁(慶應義塾大学)
   
   18. ”コミュニケーション障碍”は相互行為の分析によって理解できるか?―非典型者をとらえる視点の整理
     山本 敦、牧野 遼作(早稲田大学)
   
   19. 日常会話における「嫌なこと」の語りにおける笑い話の導入手続き
     臼田 泰如(静岡理工科大学)
   
   20. Prompt-tuningによるHallucinationの事後修正
     畠山 陽喜、森脇 恵太、酒造 正樹、前田 英作(東京電機大学)
   
   21. 推薦システムにおける大規模言語モデルを用いたユーザプロファイル拡張
     永沼 翔翼、石垣 龍馬、酒造 正樹、前田 英作(東京電機大学)
   
   22. 家庭内会話における幼児のスピーチスタイルのアップシフト
     高山 春花(東京大学/国立国語研究所)
   
   [15:25-15:35 休憩]
   
   [15:35-16:50 口頭発表2(3件)]  
   
   23. アイロニーの意図モデル:誰にどのように思わせようとしているのか
     秦 大地(拓殖大学)
   
   24. 感謝表現と謝罪表現の併用事例の会話分析-「すみません」と「ごめんなさい」の使い分け-
     梁 勝奎(名古屋大学)、岸本 健太(関西学院大学)
   
   25. 電子メディアの介在での対面コミュニケーション:視線による相互行為から
     余 佳琳(千葉大学)
   
   [16:50-16:55 休憩]
   
   [16:55-18:35 口頭発表3(4件)] 
   
   26. 相互行為におけるダイナミックタッチによる重さの表出
     細馬 宏通(早稲田大学)
   
   27. 対面のアパレル接客場面における「お見送り」を通した別れの先延ばし
     酒井 晴香(東京国際大学)
   
   28. 夫婦は自分たちの対話様態をどう相互評価しているか-夫婦ペアデータの探索的分析の試み-
     鈴木 佳奈、西村 太志(広島国際大学)
   
   29. スーパーバイザーによる仮説形成的聞き取りの構造:古典的AIの遺産を踏まえつつ
     高梨 克也(滋賀県立大学)
   
   * 23番と28番の発表を都合により入れ換えました
   
   ■  2日目:3月1日(金)
   
   [9:30-11:10  口頭発表4(4件)]
   
   30. 就職面接訓練においてPREP話法が面接評価に与える影響の分析
     前田 雄之介、岡田 将吾(北陸先端科学技術大学院大学)、井之上 直也(北陸先端科学技術大学院大学/理化学研究所)
   
   31. 高齢者向けサービスデザインのためのインタラクティブなユーザ情報収集法
     丁 福建、中谷 桃子(東京工業大学)
   
   32. 多言語音声認識評価データセットSPREDSシリーズ
     水上 悦雄(情報通信研究機構)
   
   33. 会話における話題派生的な行為連鎖に関する研究
     劉 礫岩(情報通信研究機構)
   
   [11:10-11:15 休憩]
   
   [11:15-12:30 口頭発表5(3件)]
   
   34. 連鎖終端位置における同時開始発話について
     又村 拓也、榎本 美香(東京工科大学)
   
   35. 相槌生成の認知的モデル
     森 大河(産業技術総合研究所/千葉大学)、伝 康晴(千葉大学)、Jokinen Kristiina(産業技術総合研究所)
   
   36. 自動車運転時に運転手と助手席乗員間で生じる視線同調の事例分析
     池田 恵悟、伝 康晴(千葉大学)
   
   [12:30-13:30 昼休憩]
   
   [13:30-14:20 パネルディスカッション]
   
   37. SLUD100 パネルディスカッション「SLUDのこれから」
     パネリスト:
      伝康晴(千葉大学)・徳久良子(豊田中央研究所/東北大学)・東中竜一郎(名古屋大学)・
      田頭未希(東海大学)・井上昂治(京都大学)・坂井田瑠衣(公立はこだて未来大学)
   
   [14:20-14:30 休憩]
   
   [14:30-16:10 口頭発表6(4件)]
   
   38. 複数の日本語データセットによる音声活動予測モデルの学習とその評価
     佐藤 友紀(名古屋大学)、千葉 祐弥(NTT)、東中 竜一郎(名古屋大学)
   
   39. 看護師のキャリア面談のためのLLMを用いたスロット生成型対話システム
     橋本 慧海、中野 幹生、櫻井 崇貴、白松 俊(名古屋工業大学)、駒崎 俊剛(東京医療保健大学)、土屋 志保(北里大学病院)
   
   40. 発話意欲推定に基づく適応的対話戦略を備えたインタビューロボット対話システム
     長澤 史記、岡田 将吾(北陸先端科学技術大学院大学)
   
   41. ニューラル応答生成を併用したTRPGゲームマスターAI
     武田 海人、松吉 俊、兼松 祥央、三上 浩司(東京工科大学)
   
   [16:10-16:15 休憩]
   
   [16:15-17:05 口頭発表7(2件)]
   
   42. 双子男児の会話を区間グラフを用いて固有値の変化と関係を探る
     大木 仁史(フリー)
   
   43. 意味フレームの同定に利用可能な参与者の意味特徴の比較: 動詞replaceをもちいた予備調査
     神原 一帆(立命館大学)、野澤 元、高橋 武志(京都外国語大学)
   
   [17:05-17:10 閉会挨拶]
   
   
   ====================================================
   [7] 会話関連連続イベント
   ----------------------------------------------------
   
   2月27,28日(SLUDの前々日,前日)に、同じく国立国語研究所で以下の通り
   シンポジウム2件を開催いたします。SLUD研究会と合わせ、4日連続の会話関
   連連続イベントとなります。ご都合が付きましたら是非ご参加ください。詳細
   はシンポジウム担当者からご案内いたします。
   
   2月27日 13:00~17:40
   シンポジウム「「わざ」を伝えるマルチモダリティ:武道・芸道における指導-学習インタラクション」
   
   2月28日 13:00~17:30
   シンポジウム「ことば・認知・インタラクション12」
   
   ====================================================
   [8] 問合わせ先(担当幹事)
   ----------------------------------------------------
   
   小磯花絵(国語研究所)・熊野史朗(NTT)
   Email: hanaekoiso (at) gmail.com, kumano(at)ieee.org
   
   共催: 国立国語研究所共同研究プロジェクト
         「多世代会話コーパスに基づく話し言葉の総合的研究」
          https://www2.ninjal.ac.jp/conversation/
   
   ----------------------------------------------------