OpenAI拟推组织身份验证,限制未来AI模型访问权限

【纬度新闻网】据人工智能研究机构OpenAI上周在其官网发布的支持页面,未来部分高级AI模型的访问可能要求组织完成一项身份验证流程。此举旨在加强平台安全性,同时确保开发者能够合规使用其先进技术。
该验证流程名为“Verified Organization”(验证组织),被描述为“开发者解锁OpenAI平台上最先进模型和功能的新方式”。根据页面内容,验证需提交OpenAI API支持的国家/地区颁发的政府身份证明文件。每个身份证明文件每90天仅可验证一个组织,且并非所有组织都符合验证资格。
OpenAI在页面中表示:“我们严肃对待确保AI广泛可访问且安全使用的责任。遗憾的是,少数开发者故意违反我们的使用政策使用OpenAI API。为减轻AI的不安全使用风险,同时继续向广大开发者社区提供先进模型,我们引入了这一验证流程。”
分析人士认为,此举可能与OpenAI产品日益复杂和强大有关,旨在强化安全性。OpenAI此前已发布多份报告,披露其在检测和遏制恶意使用模型方面的努力,包括应对疑似来自朝鲜的团体行为。
此外,新流程可能还意在防止知识产权盗窃。据彭博社今年早些时候报道,OpenAI曾调查一家与中国AI实验室DeepSeek相关的团体,怀疑其在2024年底通过API大量窃取数据,可能用于模型训练,这违反了OpenAI的服务条款。
值得注意的是,OpenAI已于去年夏天对中国大陆的服务访问实施了限制。
目前,OpenAI尚未公布验证流程的具体实施时间表,但此举可能对全球开发者社区的AI模型使用方式产生深远影响。