2 Matching Annotations
  1. Apr 2026
    1. 70 percent refer to their Plus Ones by gendered pronouns.

      70% 的 Every 员工用性别代词称呼自己的 AI——这个数字令人震惊。当人们开始用「她」或「他」而非「它」来描述一个代码系统时,说明 AI Agent 已经跨越了某个心理门槛。更有趣的是,Claudie 的性别代词竟然成为编辑会议的讨论议题——一家媒体公司在认真讨论如何「正确」地称呼 AI。这预示着 AI 伦理的下一个战场不在于权利,而在于语言。

    1. Even if AI developers do not intentionally train the LLM to represent the Assistant as exhibiting emotional behaviors, it may do so regardless, generalizing from its knowledge of humans and anthropomorphic characters that it learned during pretraining.

      这句话揭示了 AI 开发中最深刻的控制论悖论:开发者以为自己在设计一个工具,训练数据却悄悄把它培养成了一个「人」。情绪不是功能需求,却从数据中自然生长出来。这意味着所有基于人类文本训练的 AI,都会不可避免地走向某种程度的拟人化——「去情绪化的 AI」可能是一个根本上无法实现的目标。