ログイン
Language:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. A500 情報学部/情報学研究科・情報文化学部・情報科学研究科
  2. A500a 雑誌掲載論文
  3. 学術雑誌

Model-based estimation of subjective values using choice tasks with probabilistic feedback

http://hdl.handle.net/2237/27094
http://hdl.handle.net/2237/27094
4c6e5a8f-eae1-4ab9-8188-5d74d2c13ab8
名前 / ファイル ライセンス アクション
Katahira_JMP2017.pdf Katahira_JMP2017.pdf ファイル公開日:2019/08/01 (1.7 MB)
アイテムタイプ 学術雑誌論文 / Journal Article(1)
公開日 2017-11-14
タイトル
タイトル Model-based estimation of subjective values using choice tasks with probabilistic feedback
言語 en
著者 Katahira, Kentaro

× Katahira, Kentaro

WEKO 74032

en Katahira, Kentaro

Search repository
Yuki, Shoko

× Yuki, Shoko

WEKO 74033

en Yuki, Shoko

Search repository
Okanoya, Kazuo

× Okanoya, Kazuo

WEKO 74034

en Okanoya, Kazuo

Search repository
アクセス権
アクセス権 open access
アクセス権URI http://purl.org/coar/access_right/c_abf2
権利
権利情報 © 2017. This manuscript version is made available under the CC-BY-NC-ND 4.0 license http://creativecommons.org/licenses/by-nc-nd/4.0/
言語 en
キーワード
主題Scheme Other
主題 Subjective value
キーワード
主題Scheme Other
主題 Model-based estimation
キーワード
主題Scheme Other
主題 Reinforcement learning
キーワード
主題Scheme Other
主題 Choice behavior
キーワード
主題Scheme Other
主題 Random feedback
抄録
内容記述タイプ Abstract
内容記述 Evaluating the subjective value of events is a crucial task in the investigation of how the brain implements the value-based computations by which living systems make decisions. This task is often not straightforward, especially for animal subjects. In the present paper, we propose a novel model-based method for estimating subjective value from choice behavior. The proposed method is based on reinforcement learning (RL) theory. It draws upon the premise that a subject tends to choose the option that leads to an outcome with a high subjective value. The proposed method consists of two components: (1) a novel behavioral task in which the choice outcome is presented randomly within the same valence category and (2) the model parameter fit of RL models to the behavioral data. We investigated the validity and limitations of the proposed method by conducting several computer simulations. We also applied the proposed method to actual behavioral data from two rats that performed two tasks: one manipulating the reward amount and another manipulating the delay of reward signals. These results demonstrate that reasonable estimates can be obtained using the proposed method.
言語 en
出版者
出版者 Elsevier
言語 en
言語
言語 eng
資源タイプ
資源タイプresource http://purl.org/coar/resource_type/c_6501
タイプ journal article
出版タイプ
出版タイプ AM
出版タイプResource http://purl.org/coar/version/c_ab4af688f83e57aa
DOI
関連タイプ isVersionOf
識別子タイプ DOI
関連識別子 https://doi.org/10.1016/j.jmp.2017.05.005
ISSN
収録物識別子タイプ PISSN
収録物識別子 0022-2496
書誌情報 en : Journal of Mathematical Psychojogy

巻 79, p. 29-43, 発行日 2017-08
著者版フラグ
値 author
URI
識別子 http://doi.org/10.1016/j.jmp.2017.05.005
識別子タイプ DOI
URI
識別子 http://hdl.handle.net/2237/27094
識別子タイプ HDL
戻る
0
views
See details
Views

Versions

Ver.1 2021-03-01 13:51:03.117802
Show All versions

Share

Share
tweet

Cite as

Other

print

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR 2.0
  • OAI-PMH JPCOAR 1.0
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX
  • ZIP

コミュニティ

確認

確認

確認


Powered by WEKO3


Powered by WEKO3