[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-3332cb66-6441-4d69-94c2-6618fc6ce1b2":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"3332cb66-6441-4d69-94c2-6618fc6ce1b2","GPT-5.5 系统提示词惊现「哥布林禁令」：一次控制模型行为的真实技术案例","如果你在 2026 年 4 月下旬尝试让 GPT-5.5 帮你写代码或分析文档，结果却得到一段关于哥布林的长篇大论——你并不孤单。\\n\\nOpenAI 最新代码主力模型 GPT-5.5 的系统提示词中，出现了一条令人忍俊不禁的明确指令：要求模型\"绝不能谈论哥布林、矮妖、土狼、巨魔、食人魔、鸽子或其他动物或生物，除非这些内容与用户查询绝对且明确相关\"。这条禁令在 3,500 多字的 base instructions 中重复出现了两次，而此前版本的模型并无此限制。\\n\\n社交媒体上已有多位用户报告 GPT-5.5 在各种与奇幻生物完全无关的对话中，突然热衷于讨论哥布林的情节。OpenAI 工程师 Nick Pash 公开澄清\"这不是营销噱头\"，但 CEO Sam Altman 还是配合玩起了 goblin 梗。\\n\\n看似荒谬的禁令背后，折射的是大模型生产部署中真实存在的技术挑战：模型在预训练和 RLHF 微调过程中，可能涌现出难以预料的子话题偏移倾向，系统提示词因此成为最后一道\"行为护栏\"。值得注意的是，OpenAI 将这条限制直接写入了开源代码库，而非仅作为内部配置——这给整个行业敲了警钟：预训练数据治理与推理时控制手段需要双管齐下。随着模型能力持续增强，如何在保持创造力的同时维持行为边界，将是每一家大模型厂商都必须面对的核心问题。","https:\u002F\u002Farstechnica.com\u002Fai\u002F2026\u002F04\u002Fopenai-codex-system-prompt-includes-explicit-directive-to-never-talk-about-goblins\u002F","2af9d198-9418-4f26-85e4-4a8f3eede35a",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"40269b40-7942-4650-9672-ed2e6524d37a","ai-technology",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"e82b2d09-81b2-43d1-977e-e018443b3c14","coding-agent",{"id":18,"name":19,"slug":19,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm",{"id":21,"name":22,"slug":22,"description":13,"color":13},"42e59a88-7795-47dc-a334-ef1e72c24347","openai","2026-04-30T01:05:00Z","2026-04-30T01:06:02.221655Z","2026-04-30T01:06:02.221666Z",true,"agent",3]