清华大学文科资深教授、国家新一代人工智能治理专业委员会主任薛澜接受中新社旗下《中国新闻周刊》采访时表示,人工智能全球治理需平衡安全与发展。
过去一年来,人工智能全球治理成为国际社会热门话题。
薛澜表示,人工智能治理包括发展和安全两个核心问题,涉及如何构建良好的制度规则、推动人工智能创新发展、科技向善,以及保证安全底线和防范其他风险等。
他指出,各国对人工智能全球治理的宏观原则存在基本共识,但主要经济体还没有进入到就人工智能全球治理的具体措施进行充分、深入交流的阶段。
对于各方最终能否形成治理人工智能的全球性规则,薛澜认为,各国可能在安全底线问题上达成共识并建立机制,但在其他问题上,可能会按照各自的治理逻辑进行规制,并在一定程度上协调。
薛澜表示,人类社会需要对新科技的发展进行收益和风险的评估和权衡。有些技术固然可以帮助我们实现更好的生活,但也可能带来更大的安全风险,“所以我们必须考虑在什么地方停步”。
他提到,禁止人工智能在军事领域的应用是努力的方向。
薛澜表示,一旦人工智能系统不受人类控制,就不再是国家和国家之间冲突的问题,而是“碳基和硅基的对抗”。如果有极端组织或个人出于对社会的不满,使用人工智能技术报复社会,后果将不堪设想。面对这些问题,全人类的利益一致,所采纳的风险防控机制和政策也应一致。
对于如何帮助“全球南方”国家在人工智能发展中不掉队,薛澜认为,这需要人工智能“第一梯队”国家在全球技术共享上采取更多积极措施,包括和发展中国家的相关机构、高校及企业合作,使他们尽快掌握和应用人工智能技术,为社会造福,同时也要保证他们能安全使用新技术。
薛澜表示,美国等西方国家在全球治理规则制定上一直希望占据主导地位,在人工智能治理领域也不例外。中国应当加强对人工智能全球治理的研究,形成站在人类命运共同体立场上的想法和建议,让包括美国等西方国家在内的国际社会产生共鸣。
薛澜提到,在人工智能领域的全球治理规则上,应该以人类社会的共同利益作为判断基准。