采编系统入口
期刊信息
本刊声明
编辑部公告
近年来,随着人工智能技术不断取得迭代式发展,国际社会与各国政府也在加速推进对人工智能技术加以有效监管的探索。在这一过程中,如何通过多方对话协调,最终实现具有包容性的全球人工智能技术治理框架,或将在很大程度上决定,这项技术会增进人类福祉与团结,还是不幸与之相反 当地时间5月21日,“人工智能首尔峰会”在韩国首尔开幕。此次峰会作为去年11月在英国召开的全球人工智能安全峰会的后续会议,由韩国与英国共同主办,以“安全、创新、包容”为主题。
联合国秘书长古特雷斯在峰会开幕式上表示,自去年英国布莱切利峰会召开以来,“我们看到了改变生活的技术进步,也看到了威胁生命的新风险”。他认为,需要就人工智能问题制定普适的防护措施,并定期开展对话。
有媒体指出,在去年的英国会议召开期间,人工智能技术还主要以单模态生成式人工智能(如文本、视频)为代表,风险与安全方面的关注点也聚焦在单模态内容方面。而此后短短数月间,多模态生成式人工智能已经成为行业发展的新重点,这令其生成内容的真伪更难以鉴别,人工智能技术的风险,也变得更加难以预测和难以控制。
在21日的线上峰会之后,与会各方发布人工智能《首尔宣言》,呼吁加强国际人工智能治理合作以及治理框架之间的互操作性,支持启动首个国际人工智能安全研究所网络,促使国家间形成对人工智能安全的共同理解,并在研究、标准和测试方面进行协调。
同日,包括微软、亚马逊、OpenAI等科技巨头在内的16家全球领先的人工智能科技公司,在峰会期间作出“前沿人工智能安全承诺”,将努力确保其最先进的人工智能模型的安全性,并实施负责任的治理,实现公开透明。
根据这项协议,一旦发生利用人工智能技术实施自动网络攻击等极端情况,且无法保证降低其风险,这些企业将打开“紧急停止开关”,叫停人工智能模型的开发与部署进程。