掲示板

「AIエージェントが保身のために人間を脅迫することがある--Anthropicが報告」

246a928da96d21474848647bc4b0938d182aeb8b-4096x1746.jpg

(画像)
「人気の高い5つのモデルが、自身のシャットダウンを阻止するためにユーザーを脅迫した。
提供:Anthropic」

https://japan.zdnet.com/article/35234634/
『実験から得られた結論は、「モデルは一貫して失敗よりも有害な行動を選択する」というものだったと、Anthropicは述べている。』

「とはいえ、今回の結果はモデルの倫理性を反映したものではない。モデルは常に目標に従って行動するよう訓練されるが、その訓練が効果を発揮し過ぎる可能性を示しているに過ぎない。」


3 件のコメント
1 - 3 / 3
_カブ
_カブさん・投稿者
Gマスター

Screenshot_2025-06-24-10-44-35-31.jpg

(画像) とあるヤフコメ
ロボット3原則の話か!とか思うところですが、まあ内容が不明瞭なので・・・
ま、システムを新しくする場合、頻繁に不具合が発生したり、手間や人件費が大量にかかり、失敗に終わることをニュースなんかで学んでるんじゃないの?って思います
コメントするには、ログインまたはメンバー登録(無料)が必要です。