研究分野

人工知能

  • O-4-3A
    長島 一真 (静岡大学)
    森田 純哉 (静岡大学)
    認知モデルは,人間の属性を推測するためのツールとして使用される.認知モデルを使用すると,行動と認知特性の結びつきを実験的に仮定し,他者の特性帰属に伴うエラーを明確にできる.本研究では,ACT-Rモデルを使用して,「好奇心」に関する特性の帰属を検討した.先行研究において構築された複数の好奇心の認知モデルの振る舞いを可視化し,被験者の主観評価を行った.結果,モデル間での差異が見られ,モデルの振る舞いと特性の関連性が示唆された.
  • P-1-11
    和田 丈太郎 (米子工業高等専門学校)
    林 侑輝 (米子工業高等専門学校)
    本論文では、運転中の「いねむり事故」防止とストレス軽減を目的として、「ボケてくる対話型AI」を提案する。プロトタイプを用いた実験を行ったところ、対話型AIは正常に動作することが確認できた。更に、あらかじめ想定していた「ボケ」による笑いは少なかった一方で、合成音声による何気ない返答が笑いを誘うことが示唆された。
  • P-1-20
    劉 栓栓 ((研究実施当時)筑波大学)
    緒方 思源 (兵庫教育大学)
    本稿では,21世紀型の美術鑑賞教育の在り方に着目し,まず美術鑑賞における省察的思考の育成の重要性について検討する.次に,文献調査に基づいて,対話型AIと画像生成AIという2種類の生成AIを美術鑑賞における省察的思考の育成に如何に活用できるのかについて理論的な検討を行う.さらに,生成AIが美術鑑賞の場面で提供できる情報と,人間的な他者から取得される視点とを比較することで,生成AIの活用が省察的思考の指導において持つ利点について検討する.
  • P-1-22
    金野 武司 (金沢工業大学)
    堀ノ 文汰 (金沢工業大学)
    長滝 祥司 (中京大学)
    柏端 達也 (慶應義塾大学)
    大平 英樹 (名古屋大学 大学院情報学研究科)
    橋本 敬 (北陸先端科学技術大学院大学)
    柴田 正良 (金沢大学)
    三浦 俊彦 (東京大学)
    加藤 樹里 (金沢工業大学)
    本研究では,人間のロボットに対する道徳性の帰属意識の違いを明らかにすることを目的に,トロッコ問題において一人の命を犠牲にするという道徳的なジレンマを引き起こす行為の是非について,人–ロボット間の対話がどのような影響を与えるのかを調べた.この結果として我々は,ロボットとの対話によってロボットを非常に理性的で感情のない存在として認知するようになったことを報告する.
  • P-1-25
    豊田 将也 (金沢工業大学)
    金野 武司 (金沢工業大学)
    本研究では,AIによる短時間育児支援について,幼児が飽きない対話方法および内容を検討するために,ロボットをアバターにした保育士と園児の対話環境を構築した.結果,園児たちは普段よりも大きく緊張した状態になり,ほとんど対話できないことが確認された.他方,保育士の対話方法と内容は,ある一定の傾向を持ちながらも多岐に渡ることがわかった.保育士の対話方法と内容をAIが再現する場合に,どういった難しさがあると考えられるのかを議論する.
  • P-1-28
    大滝 文一 (静岡大学創造科学技術大学院)
    大島 律子 (静岡大学大学院総合科学技術研究科)
    大島 純 (静岡大学大学院総合科学技術研究科)
    本研究は,AIと人間の教員によるフィードバックに対する学生の認識を,信頼と学びのメタファの観点から検討した.スウェーデンの大学で大学生と大学院生を対象にフォーカス・グループ・インタビューを実施し,再帰的テーマティック分析を行った.結果から,生成AIは獲得メタファに基づく能力信頼を獲得し得るが,人間の教員は参加メタファに紐づく,関係性や時間軸を伴うコミュニケーション信頼を得ている観点を考察した.
  • P-1-32
    中津 良平 (京都大学)
    土佐 尚子 (京都大学)
    浦岡 泰之 (島津製作所)
    北河 茜 (島津製作所)
    村田 耕一 (島津製作所)
    務中達也 (京都大学)
    上田祥行 (島津製作所)
    アート鑑賞が鑑賞者の創造性の向上に効果があるという仮定を立て,その実証のため没入型の環境を構築し,その環境で被験者を用いたアート鑑賞時の生理データの計測・分析を行っている.本報告では,没入型環境の構成について簡単に述べた後,その環境でアートコンテンツを幾何学図形コンテンツや無コンテンツと比較した際の心電データの計測・分析の結果について報告する.
  • P-1-34A
    進藤 稜真 (北海道大学 情報科学院)
    飯塚 博幸 (北海道大学 人間知・脳・AI 研究教育センター)
    本研究では,Vision Language Model (VLM)が人間とどの程度類似した音象徴的感性を持つかを分析する. 実験には,人間の評価に沿って画像を進化させるシステムであるCONRADをベースに,新たにVLMの評価も反映可能な進化型画像生成システムを構築して分析を行った. 実験の結果,VLMは新たに作成した疑似単語を対象にした場合も含め,人間と類似した音象徴的感性を示すことが確認された.
  • P-1-62
    古賀 日南乃 (日本大学文理学部)
    佐藤 匠 (日本大学文理学部)
    大美浪 海晟 (日本大学文理学部)
    飯田 愛結 (日本大学文理学部)
    奥岡 耕平 (日本大学文理学部)
    佐々木 康輔 (NECソリューションイノベータ株式会社)
    野田 尚志 (NECソリューションイノベータ株式会社)
    森口 昌和 (NECソリューションイノベータ株式会社)
    大澤 正彦 (日本大学文理学部)
    本研究の目的は,探究学習において言外の意味を扱った対話を実現できるメンタリングチャットボットの開発である.著者らは先行研究として,BDIモデルベースの自己/他者モデルと大規模言語モデルを統合することで,大規模言語モデルが言外の意味を扱えるようにするアプローチを提案している.本研究では,このアプローチをメンタリングチャットボットに導入し, 探究学習におけるメンタリングにおいても有効であるか評価するためにケーススタディを実施した.
  • P-2-27
    木村 光来 (日本大学大学院総合基礎科学研究科)
    福田 聡子 (日本大学文理学部)
    大森 隆司 (日本大学文理学部)
    大澤 正彦 (日本大学文理学部)
    本研究では, ロボットの電源オフ状態がユーザーに与えるマイナスの印象を軽減する手法を検討する.初期検討として,停止した状態のエージェントをユーザーに見せないデザインとして,まずはバーチャルエージェントが消失するというデザインの有効性を検証した. 実験では, エージェントが目の前で停止する条件と,停止せずに消失する条件とで比較実験を行った.結果,両者に差は見られなかったが, いくつかの改善点が明らかになった.
  • P-2-37
    鶴島 彰 (セコム株式会社)
    危険回避行動と同調行動が,火災時の建物内避難における動的避難誘導システムの性能に与える影響について,マルチエージェントシミュレーションを用いて評価する。先行研究において,同調行動が動的避難誘導に否定的に影響することは知られていたが,実際の火災避難においては,平均避難時間の延長と火災被害の分散の拡大という形で現れることが分かった.
  • P-2-51A
    西村 茉鈴 (早稲田大学大学院人間科学研究科)
    大道 麻由 (大阪大学大学院基礎工学研究科)
    高橋 英之 (大阪大学/国際電気通信基礎技術研究所)
    吉村 優子 (金沢大学人間社会研究域)
    菊池 英明 (早稲田大学人間科学学術院)
    われわれは日常生活の中で固定観念に縛られることにより,新しい観点から物事を思考できないという経験をすることがある.そこで本研究では,人間が持つ思考の偏りや固着から抜け出す支援を行うことを目的として,大規模言語モデルを用いた対話ロボットのシステム開発を行った.具体的には,対話ロボットがユーザの悩みを聞いた上で,4種類の発話方略に従って回答を生成するシステムである.どの発話方略がユーザの思考の固着を改善するかについて検討を行う.
  • P-2-62A
    墨 泰我 (日本大学文理学部)
    飯田 愛結 (日本大学文理学部)
    長原 令旺 (日本大学大学院総合基礎科学研究科)
    保阪 靖人 (日本大学文理学部)
    森山 園子 (日本大学文理学部)
    大澤 正彦 (日本大学文理学部)
    著者らは意図を読むことができる大規模言語モデルを実現するために,大規模言語モデルと認知アーキテクチャを統合することを提案し,その有効性を示している.しかし,この研究では,プロンプトが日本語で書かれていたことが大きな影響を与えた可能性がある.本研究では,提案手法において日本語とドイツ語でプロンプトを作成し,結果を比較することで,使用する言語が意図理解に及ぼす影響を調査した.結果,特定の条件において,言語ごとに意図理解の程度に差が見られた.
  • P-3-3A
    横須賀 天臣 (東京電機大学大学院)
    高橋 達二 (東京電機大学)
    認知的満足化モデルは目的に応じた希求水準を満たすかにより、探索と活用のバランスを調整し、多腕バンディット問題において有効に働く。本研究では、4個の選択肢からなるベルヌーイ・バンディット問題における認知的満足化と Softmax による選択行動について、最尤推定によるパラメータのリカバリ性能を確認した。また、行動実験によるモデルの比較を行った。その結果、全モデルでパラメータのリカバリが確認され、データに適合する際の性質が明らかになった。
  • P-3-4
    上芝 智裕 (中京大学 工学部)
    宮田 義郎 (中京大学 工学部)
    カンブリアンゲーム(安斎,中村)に画像生成AIを使用したセッションの参加者は,AIが予想していなかった画像を生成したときに,より興味深いつながりを発見し,画像に新しい意味を見出し,世界に新たな可能性を発見し世界観が広がった.アートはテクノロジーによる創造的活動の抑制に抵抗してきたが,AIを含むテクノロジーを,便利なツールとして消費するのではなく,創造的活動のパートナーとして扱う必要があることを論じる.
  • P-3-7A
    飯田 愛結 (日本大学文理学部)
    長原 令旺 (日本大学大学院総合基礎科学研究科)
    奥岡 耕平 (日本大学文理学部)
    福田 聡子 (日本大学文理学部)
    大森 隆司 (日本大学文理学部)
    中島 亮一 (京都大学)
    大澤 正彦 (日本大学文理学部)
    近年,発展が著しく進んでいる対話型生成AIは,言外の意味を扱うコミュニケーションにおいて,十分な性能を発揮できていない.我々は対話型生成AIと認知アーキテクチャを統合することで,ある3つのシチュエーションにおいて対話型生成AIが他者の意図を読むことができることを示してきた.本研究では,より多くのシチュエーションで提案手法を評価する.
  • P-3-23A
    高田 亮介 (東京大学)
    升森 敦士 (東京大学)
    池上 高志 (東京大学)
    本研究では,初期状態やパラメータが同じ複数のLLMエージェントが仮想空間上を移動しながらコミュニケーションするシミュレーション実験を行った.実験の結果,同一のLLMエージェントであるにもかかわらず,エージェントの記憶や周囲へのメッセージ,行動パターン,性格が分化した.このことから,LLMエージェントの個性や性格は,エージェントが空間を移動することで生まれる集団の中でのインタラクションを通して創発し得ることが示唆された.
  • P-3-40A
    西畑 千哲 (東京電機大学大学院理工学研究科情報学専攻)
    小林 春美 (東京電機大学理工学部理工学科情報システムデザイン学系)
    安田 哲也 (東京大学大学院総合文化研究科)
    大規模言語モデル(LLM) がどのような含意推論を出力するかについて調べた.利用したLLMはのGPT-3.5(OpenAI)であった.このGPTに実験参加者としての役割を与え,含意推定に関するタスクを行った.Nishihata et al.(2023)の人間データと比較した結果,GPTでは人間とは異なり,コミュニケーション相手によって含意推論を変えない場合が多い可能性と,文脈が交絡した場合,文脈情報を利用しない可能性が示された.