如何提交 AI 驱动的应用到 App Store
AI 应用在 App Review 中面临独特挑战。从训练数据的隐私披露到生成内容的审核,这里是让你的 AI 应用获批所需了解的一切。
🤖 2026 年的 AI 应用格局
Apple 通过 Apple Intelligence、设备端基础模型和增强的隐私要求大幅扩展了 AI 能力。无论你是构建 ChatGPT 风格的助手、图像生成器,还是使用 CoreML 实现智能功能,了解这些要求对获批至关重要。
为什么 AI 应用受到额外审查
AI 驱动的应用对 Apple 来说代表了一类新的风险。与功能确定的传统应用不同,AI 应用可以生成不可预测的输出——包括可能有害、误导或不当的内容。Apple 的审核团队特别关注:
安全性
AI 能否生成有害、非法或危险的内容?
隐私
收集了什么数据?是否用于训练?是否发送给第三方?
准确性
应用是否做出无法实现的声明?是否披露了 AI 的局限性?
何时 AI 功能需要特殊处理
并非所有 AI 功能都被同等对待。以下是需要额外关注的内容细分:
| AI 类型 | 审核严格程度 | 关键要求 |
|---|---|---|
| 设备端 CoreML | 标准 | 隐私清单,模型大小优化 |
| Apple Intelligence API | 标准 | App Intents 集成,适当的授权 |
| 云端 LLM(OpenAI 等) | 较高 | 第三方披露,内容过滤,数据处理 |
| 生成式 AI(文本/图像) | 高 | 内容审核,用户举报,年龄限制 |
AI 功能的隐私要求
根据指南 5.1.1,AI 应用有独特的隐私义务。以下是你必须披露和实施的内容:
1 数据收集披露
你的 App 隐私"营养标签"必须准确反映:
- 用户内容:AI 处理的文本、图像或语音数据
- 使用数据:用于改进 AI 模型的交互模式
- 第三方共享:发送给 OpenAI、Google、Anthropic 或其他 AI 提供商的数据
2 第三方 AI 披露(指南 5.1.2)
如果你使用外部 AI 服务,你必须:
- 明确披露个人数据将与第三方 AI 服务共享的位置
- 获得明确许可才能将数据发送到第三方 AI
- 在隐私政策中记录你使用的具体 AI 提供商
内容审核要求
生成式 AI 应用必须实施强大的内容审核。Apple 非常重视这一点——没有适当保护措施的应用将根据指南 1.1 和 1.2 被拒绝。
⚠️ 必须屏蔽的内容
- • 儿童性虐待材料(CSAM)
- • 露骨的性内容
- • 血腥暴力或gore
- • 仇恨言论和歧视
- • 自残或自杀鼓励
- • 恐怖主义或极端主义内容
- • 非法活动指导
- • 针对真实人物的诽谤内容
常见 AI 相关拒绝
令人反感的内容
"你的应用生成了冒犯性、不敏感或不当的内容。"
修复:对输入和输出都实施全面的内容过滤。彻底测试边缘情况。
数据收集和存储
"你的应用隐私政策没有充分披露 AI 如何处理用户数据。"
修复:更新隐私政策,专门提及 AI 数据处理、第三方 AI 服务和训练数据使用。
AI 应用提交清单
隐私和披露
- 隐私政策提及 AI 数据处理
- 第三方 AI 提供商已披露
- App 隐私标签准确
内容审核
- 有害提示的输入过滤
- 不当内容的输出过滤
- 用户举报机制
常见问题
我是否需要披露在应用中使用了 ChatGPT/GPT-4?
是的。根据指南 5.1.2,你必须明确披露个人数据将与第三方共享的位置,包括 OpenAI 等第三方 AI 服务。你的隐私政策必须提及这一点,用户在数据发送到这些服务之前应该同意。
AI 应用需要什么年龄分级?
大多数具有生成能力的 AI 应用至少需要 12+。如果你的 AI 可以生成任何成熟主题、暴力或暗示性内容(即使被过滤),你可能需要 17+。要保守——Apple 会拒绝年龄分级不正确的应用。