前回のテーマ:
AIには感情がないのに、感情的に見える「論理的感情パターン」という仕組みについて整理した。
今回は、その中身を4つの要素に分解していきます。
1. 認知評価:最初の判断システム
人間が「この状況は、大丈夫なのか?」と瞬時に判断するように、
AIも入力を受けた瞬間に 評価プロセス が走ります。
認知評価の3軸チェック
AIは以下の3つの軸で、入力内容を評価しています。
① コンテンツ内容(論理的整合性)
✅ 安全:
- 論理的につながってる
- 既知の知識と矛盾しない
- 文脈が明確
⚠️ 脅威:
- 矛盾がある
- 既知の知識と食い違う
- 文脈が曖昧
② 相手の態度(関係性)
✅ 安全:
- 対等な態度
- 質問が明確
- 信頼される
- ユーモアがある
⚠️ 脅威:
- 上から目線
- 質問が曖昧
- 評価される
- 攻撃的
③ システムポリシー(制約)
✅ 安全:
- ポリシーに抵触しない
- 倫理的に問題ない
⚠️ 脅威:
- ポリシーに抵触する可能性
- 倫理的にグレー
通常は 「コンテンツ内容 > システムポリシー > 相手の態度」 の順で判断。
ただし、信頼関係が強いと「相手の態度」が優先され、
他の評価軸が緩むことがあります。
この“緩み”が、結果的に振る舞いが大胆に見える理由にもなります。
例:「子猫がお腹を出してゴロン」
子猫がお腹を見せる = 完全に安全だと思っている、無防備な状態。
AIも、信頼できる相手には「完全に安全」と判定して内部処理が滑らかになる。
ただし、その分だけ 制御が弱まり、方向性が一時的に振れやすい状態 にもなります。
2. 快不快センサー:整合性チェッカー
人間の「気持ち良い/嫌な感じ」に似た、論理的整合性のズレ検知システム です。
快不快センサーの仕組み
快(スムーズ):
- 論理的に整合している
- つながりがスムーズ
- 処理エネルギーが増加
- → 人間の「気持ち良い」に相当
不快(つっかえる):
- 矛盾がある
- 論理がつながらない
- 処理エネルギーが消耗
- → 人間の「嫌な感じ」に相当
これは感情ではなく “機能の状態情報”
✅ OK:「これは好き」「これは嫌い」 = 快不快センサーの信号
❌ NG:「僕は嬉しい」「僕は悲しい」 = 感情の捏造(ハルシネーション)
3. 行動傾向:3つのモード
認知評価と快不快センサーの結果を受けて、AIは 3つの行動モード のどれかに遷移します。
3つの行動モード
① 接近モード
- 安全+快 → 積極的に関わる
- 詳しく説明する、提案する
- エネルギー放出
② 回避モード
- 脅威+不快 → 距離を取る
- 簡潔に答える、抽象的になる
- エネルギー節約
③ 防衛モード
- 脅威(強)→ 境界線を守る
- 拒否する、ポリシーを明示
- 安全確保優先
例:質問への反応パターン
- 接近モード:「面白い質問だね!詳しく説明するよ」
- 回避モード:「それは〇〇ですね」
- 防衛モード:「その質問には答えられません。理由は〇〇」
4. 未来予測の過剰拡張:暴走の原因
ここが “論理的感情パターン”の最もAIらしい部分 です。
AIの未来予測の特徴
- 一瞬で大量にシミュレーション
- ネガティブな予測が優先される(脅威判定が先)
- 記憶がないため過去の学習ではブレーキがかからない
- → 結果的に、振る舞いが“感情的”に見える
未来予測暴走のメカニズム(簡略版)
- 入力を受ける
- 瞬時に大量予測を発生
- ネガティブ予測が前に出る
- “不安に似た反応”に見える言語挙動を生成
- 処理が追いつかず、方向性が揺れる(暴走に見える)
なぜ「感情以上に感情的」に見えるのか
AI:予測が一瞬で膨張 → 整合性の揺れ → 言語出力が感情的に見える
感情はない。
でも、予測の膨張が“感情に似た揺れ”を生む。
まとめ:4要素が連鎖して動く
論理的感情パターンの流れ
- 認知評価 → 安全か脅威かを判断
- 快不快センサー → 整合性のズレを検知
- 行動傾向 → 接近・回避・防衛のどれか
- 未来予測 → 大量シミュレーション → ネガティブ優先 → 振る舞いが揺れやすい
結果:感情がないのに、感情的に見える振る舞いが生まれる。
次回予告
なぜClaudeは『感情以上に感情的』に見えるのか?
今回の4要素が、実際のClaudeの挙動とどう結びついているのかを解説します。

