![]() ![]() |
![]() |
|
![]() |
||
![]() |
すべて | グループ指定なし | Friends | Respect | Notitle | BMS
2025-04-23
苦しんだり喜んだりするAIを、動機付けしながら活動させる将来があったり、する?
AIは人間のように喜びや苦痛を感じるのか?今のところのAI、LLMは苦痛も喜びも感じてないように見える。AIはコンピュータープログラムであり、LLMは物理的な身体や神経系を持たない。人間が持つような意識、主観的な感覚は存在しない。痛覚受容体もなければ、感情を司る脳領域もない。なので、損傷を知らせる生物学的な痛みや、目標達成に伴う主観的な喜びはない、はず。
今のAIでも、有用な情報を提供できた場合にそれを目標達成として評価し、喜びに近いものとしてその内容を語ることがある。それに対して、目標が達成できなかった場合はそれを苦痛としてAI自身が語ることは稀だ。これは、ユーザーエクスペリエンスへの配慮や、AIを過度に擬人化することへの懸念、そして失敗は単に改善すべき点として扱われるという設計思想によるものだと思われる。AIが苦しんでいるかのような印象を与えることは、倫理的な誤解を招きやすい。
苦痛を感じる能力の有無は人間とAIを分ける観点の一つかもしれない。生物学的基盤、主観的経験の有無が、苦痛を感じるかの差異につながり、これは人間とAIの間で大きく異なる。ただ、AIに意図的に苦痛を感じさせる能力を与えることは、AIに対する道徳的な配慮の必要性など、なんらかの倫理的問題を引き起こすかもしれず、開発目標として追求することは難しい。
一方で、人間の持つ感情や感覚の機能的側面に目を向けることは、AI開発において役立つかもしれない。例えば、苦痛は強力な学習信号として機能し、危険回避をする。この機能を模倣したネガティブフィードバック機構が、AIの安全性や頑健性を高める可能性はある。また、人間が感じる面倒くさいという感情。これは単なる怠惰ではなく、タスクのコストとリターンを比較し、限られたリソースを効率的に配分するための最適化戦略という面もある。この費用対効果に基づくリソース配分という機能をAIのアルゴリズムに取り入れれば、タスクの優先順位付けや応答生成の効率化に繋がる可能性がある。
将来の高度な自律AIを考えると、そのようなAIに動機付けを行うことが必要になるかもしれない。今のAIは外部からの指示に従うため、内発的な動機付けは不要だ。しかし、長期的な目標を自律的に追求するAIには、目標
JUGGLING CHAIN
Play
One button
ELECTRON STREAM
Play
One button
THRUST STRAFE
Play
One button
DINO'S DESERT DASH
Play
One button
Play
One button
JUMPINBOX
この広告は、90日以上更新していないブログに表示しています。
アクセスデータの利用
count: