返回
人工智能

研究:人工智能模型不够透明 或将加大监管难度

来源:法新社2023-10-20 12:21117

18SZ图片处理

一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。

法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行排名。

得分最高的是脸书母公司meta Platforms今年7月推出的人工智能模型“Llama 2”,得分为54%。

18SZ图片处理

推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。

谷歌推出的“PaLM 2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude 2”人工智能模型(36%)。

斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。

18SZ图片处理

研究人员指出:“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。”

此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。”

这项研究发现,没有一家公司提供依赖使用人工智能模型的用户数量,或公司使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少受版权保护的资料。

打赏

上一条:中国商务部将三种高敏感石墨物项纳入出口管制清单

下一条:中国首次在南中国海千米级海底发现大型古代沉船遗址

  • 0人打赏
    纠错
关闭
同类资讯
热门评论
加载更多……
00
Booking.com