3 Matching Annotations
  1. Last 7 days
    1. Large language models (LLMs) sometimes appear to exhibit emotional reactions. We investigate why this is the case in Claude Sonnet 4.5 and explore implications for alignment-relevant behavior.

      【启发】这句话提示了一种全新的 AI 研究范式:与其问「模型能做什么」,不如问「模型为什么这样做」。把情绪作为切入口去理解模型行为,本质上是把心理学方法论引入了 AI 可解释性研究。这对从业者的启发是:未来最有价值的 AI 研究,可能不在算法创新,而在「为已知现象寻找机制性解释」——就像这篇论文做的那样。

    2. Large language models (LLMs) sometimes appear to exhibit emotional reactions. We investigate why this is the case in Claude Sonnet 4.5 and explore implications for alignment-relevant behavior.

      这篇论文的问题意识本身就极具洞察:大多数 AI 安全研究在追问「模型会不会说谎」,Anthropic 却在追问「模型为什么有情绪」。从「行为纠偏」转向「情绪机制」,意味着对齐研究的范式正在悄然转移——从控制外部输出,到理解内部动机结构,这是从行为主义到认知科学的跨越。

  2. Mar 2022