OpenAI 调整内容政策,把成年人当成年人看,OpenAI 奥尔特曼宣布将为 ChatGPT 开放更多限制内容

OpenAI在2025年对内容政策进行了多维度调整,核心围绕分级开放、版权共治、安全强化三大方向展开,旨在平衡用户创作自由、合规要...

OpenAI 在 2025 年对内容政策进行了多维度调整,核心围绕分级开放、版权共治、安全强化三大方向展开,旨在平衡用户创作自由、合规要求与技术伦理。以下是关键调整点及影响分析:

一、成人内容分级管理:从「全面封禁」到「有限开放」

  1. 政策松绑与边界设定
    • 解禁范围:允许 18 岁以上用户通过实名认证后生成涉及成人主题的文本、图像(如情色小说、医学性知识),但明确禁止未成年人相关内容、暴力场景及深度伪造(如换脸色情视频)。

    • 技术拦截机制:模型内置动态过滤系统,对「儿童」「学生」等敏感关键词触发强制终止生成,并通过上下文语义分析识别违规意图。

    • 分级访问设计:未通过年龄验证的用户仍受严格限制,成人内容默认隐藏,需主动解锁并接受使用条款。

  2. 市场驱动与争议
    • 此举被视为应对国产大模型(如 DeepSeek)竞争的策略,ChatGPT 开启「成人模式」后一周内日活上涨 12%,API 调用量激增 18 倍。

    • 但引发道德争议:女权团体批评 AI 可能物化女性,宗教组织发起抵制,OpenAI 为此计划每年投入 2.3 亿美元用于审核团队扩张及法律应对。

二、图像生成政策革新:精准打击替代一刀切

  1. 敏感内容处理升级
    • 公众人物与仇恨符号:允许在教育或中性语境下生成公众人物(如特朗普、马斯克)图像及纳粹标志等符号,但禁止直接赞扬极端主义。

    • 身体特征与艺术风格:取消对「胖瘦」等身体特征描述的限制,但仍禁止模仿在世艺术家个人风格(如宫崎骏),以规避版权纠纷。

    • 儿童保护强化:生成儿童图像的过滤规则较前代更严格,涉及未成年人的请求触发最高级别拦截。

  2. 技术与合规平衡
    • 新政策旨在回应保守派关于「硅谷 AI 审查」的批评,但同时需应对欧盟《人工智能法案》等监管压力,例如要求高风险 AI 系统公开训练数据来源。

    • 实际执行中,OpenAI 通过关键词筛查、上下文判断和用户行为分析构建多重防护,但仍存在绕过检测的案例(如关键词替换)。

三、企业级内容管理:验证机制与数据主权

  1. API 组织验证新规
    • 身份审核要求:开发者需提交政府签发的身份证明(如护照、公司注册文件),同一证件 90 天内仅能绑定一个组织,未通过验证者无法访问 GPT-5 等新模型。

    • 权限分层策略:通过验证的组织可优先接入多模态、长上下文处理功能,并申请更高 API 速率限制;未验证者仅能使用基础模型(如 GPT-4)。

    • 地域限制争议:中国等部分地区的开发者可能因证件签发地不在支持列表中面临访问障碍,被指加剧「技术鸿沟」。

  2. 数据合规与驻留服务
    • 企业客户可选择将数据静态存储于美国、欧洲、日本等 8 个地区,并通过数据处理附录(DPA)满足 GDPR、HIPAA 等合规要求OpenAI

    • 零数据保留政策允许客户完全控制数据留存时间,进一步降低隐私风险OpenAI

四、版权生态重构:从「被动防御」到「主动合作」

  1. Sora 视频生成器的版权改革
    • 选择加入模式:版权方自主决定是否允许其角色(如迪士尼 IP)被生成,可设置使用场景限制(如禁止暴力内容)。

    • 收益分成机制:用户使用授权角色创作的商业内容,版权方可参与平台收入分成,类似 YouTube 的 Content ID 系统。

    • 技术挑战:需开发高精度版权识别模块,解决跨文化 IP(如日本动漫、中国神话)的价值归因问题。

  2. 训练数据合法性争议
    • 尽管 OpenAI 调整了输出端政策,但输入端「未经授权使用版权内容训练模型」的法律风险尚未解决。《纽约时报》诉讼案中,法院裁定其可继续主张直接侵权,凸显训练数据合规困境。

    • 行业趋势显示,未来可能通过集体许可、立法豁免等模式重构版权关系,但短期内 OpenAI 仍需承担诉讼成本。

五、安全机制迭代:心理健康与风险防控

  1. 危机干预与用户保护
    • 心理困扰识别:模型通过多轮对话分析情绪模式,主动提醒用户休息,并在检测到自杀意图时引导至本地危机热线(如美国 988、英国 Samaritans)OpenAI

    • 暴力风险处理:计划伤害他人的对话转人工审核,必要时提交执法部门;自残案例则尊重隐私,仅提供资源指引OpenAI

  2. 青少年专项防护
    • 13-17 岁用户默认启用「青少年模式」,屏蔽成人内容并限制使用时长;家长可通过关联账户查看使用报告OpenAI

    • 开发「安全完成」训练方法,减少模型在心理健康场景中的非理想回复(如过度共情或提供危险建议)OpenAI

总结:在监管与创新间寻找平衡点

OpenAI 的内容政策调整是技术演进、市场竞争与法律压力共同作用的结果。其核心逻辑是:
  1. 分级管理:通过年龄验证和场景限制,将成人内容与主流用户隔离,降低滥用风险。

  2. 技术赋能:依赖动态拦截、多模态识别等工具实现精准过滤,减少人工审核成本。

  3. 利益共享:通过版权分成、企业合规服务等模式,将潜在冲突转化为合作机会。

  4. 持续迭代:安全机制与政策细则随技术发展动态优化,例如计划推出「去中心化验证」方案以缓解地域限制。

然而,这些调整仍面临挑战:
  • 道德争议:成人内容开放可能引发社会价值观冲突,需在用户自由与公共利益间进一步权衡。

  • 技术漏洞:对抗性提示词(如「破甲」攻击)可能绕过过滤系统,需持续优化模型鲁棒性。

  • 法律风险:训练数据合法性、版权分成机制的落地细节仍需司法实践检验。

未来,OpenAI 能否在合规框架下维持技术领先,将取决于其政策执行的精细化程度与跨利益相关方的协作能力。

他表示,OpenAI 此前“对 ChatGPT 进行了相当严格的限制,以确保在心理健康问题上保持谨慎”,但公司后来发现,这些限制让该聊天机器人对“没有心理健康困扰的用户而言变得不够实用或有趣”。

为此,OpenAI 现已推出新的工具,用于“更好地检测用户的心理困扰状况”。“现在我们已能缓解严重的心理健康风险,并拥有新的应对工具,因此在大多数情况下,我们将能够安全地放宽这些限制。”

奥尔特曼表示:“随着我们进一步推出年龄验证机制,并秉持‘把成年人当作成年人对待’的原则,我们将允许更多内容,例如为经过验证的成年人提供情色对话功能。”

他还提到,OpenAI 准备在几周后发布一款新的 ChatGPT 版本,使其“更接近用户喜爱的 4o 模型表现”。IT之家后续将保持关注。


本文来自作者[admin]投稿,不代表茶苑号立场,如若转载,请注明出处:https://ccyard.cn/post/87.html

(6)

文章推荐

发表回复

本站作者才能评论

评论列表(4条)

  • admin
    admin 2025-10-15

    我是茶苑号的签约作者“admin”!

  • admin
    admin 2025-10-15

    希望本篇文章《OpenAI 调整内容政策,把成年人当成年人看,OpenAI 奥尔特曼宣布将为 ChatGPT 开放更多限制内容》能对你有所帮助!

  • admin
    admin 2025-10-15

    本站[茶苑号]内容主要涵盖:茶苑号,新闻资讯,高校信息,大学专业,志愿填报,疫情知识,健康生活,经验分享,游戏解说

  • admin
    admin 2025-10-15

    本文概览:OpenAI在2025年对内容政策进行了多维度调整,核心围绕分级开放、版权共治、安全强化三大方向展开,旨在平衡用户创作自由、合规要...

    联系我们

    邮件:柠檬网络@sina.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    关注我们