近期一项评估10种基础人工智能模型的透明度指数报告,为人工智能行业敲响了加强信息披露的警钟。来自斯坦福大学、麻省理工学院和普林斯顿大学的研究人员指出,若不提高先进人工智能工具的内部运作机制、训练数据及后果的透明度,理解并缓解相关风险将始终难以实现。 由于竞争和安全考量,领先企业日益封闭,自律机制已显不足。研究人员主张将透明度置于AI立法的核心,强调亟需提升AI发展的可理解性与可追责性。
一项针对10款核心人工智能基础模型的新透明度指数评估结果令人震惊,这正促使人工智能开发商分享更多产品信息,同时给立法者和监管机构施加压力,要求他们强制披露相关信息。
查看引用文章
为何重要:创建该指数的斯坦福大学、麻省理工学院和普林斯顿大学研究人员指出,除非人工智能公司更主动地公开其最先进工具的内部运作机制、训练数据及影响,否则用户永远无法充分理解人工智能相关的风险,专家也永远无法有效缓解这些风险。
作者
相关洞察
2026年3月31日
福莱观点
采购合同即将新增条款——禁止某些DEI活动的合同条款
2026年3月26日,总统签署了题为《解决联邦承包商在多样性、公平与包容(DEI)方面的歧视问题》的第14398号行政命令。该命令……
2026年3月30日
福莱观点
“若非如此”的困境——德克萨斯州公共事业委员会拟议的大型负荷并网规则如何影响政府激励策略
企业若希望为扩建或搬迁项目申请政府激励措施(例如减税或州级补助),必须……
2026年3月25日
福莱观点
NAIC 2026年春季会议最新动态:住宅业主市场数据征集(C)工作组
摘要与要点:房主市场数据电话会议(C)工作组就……的剩余实施步骤提供了最新进展……