旷视印奇:坚持长期主义,以企业能动性落实AI治理责任
4月30日,上海市科学学研究所正式发布《全球人工智能治理年度观察2019》英文版(以下简称“报告”)。其中,人工智能企业旷视联合创始人兼CEO印奇作为唯一企业代...
4月30日,上海市科学学研究所正式发布《全球人工智能治理年度观察2019》英文版(以下简称“报告”)。其中,人工智能企业旷视联合创始人兼CEO印奇作为唯一企业代表发表了题为《直面人工智能治理挑战,企业要有所作为》的文章,分享了旷视在AI治理方面的观点及进展。印奇认为,企业应该以长期主义直面AI治理挑战,以企业能动性落实AI治理责任。
图:旷视印奇在《全球人工智能治理年度观察2019》发布署名文章,分享AI治理思考
该报告全球首份由全球业内顶级专家共同参与撰写的人工智能治理报告,由清华大学战略与安全研究中心主任傅莹、图灵奖获得者John Hopcroft、诺贝尔和平奖获得者Irakli Beridze、欧洲议会议员Eva Kaili、AAAI2021主席杨强和AAAI2020主席Francesca Rossi等专家参与撰稿,对2019年全球人工智能治理总体形势进行研判。报告指出,2019年全球人工智能治理各项进展既有延续性也有突破性,其中从政府主导向“政府+市场”主导转型等进展和趋势值得关注。
印奇也表示,“AI治理不仅是政府及相关机构有责任,企业作为AI技术研发与应用的主要力量和一线实践者应当有所作为,有所担当,要主动开展企业自治的工作”。事实上,旷视早已在AI治理方面进行了实践和探索。如在2019年推出基于企业自身管理标准的《人工智能应用准则》,并成立了由创始人、核心高管以及外部专家组成人工智能道德委员会负责监督,通过发挥企业能动性来落实AI治理责任,确保旷视技术能够为社会带来积极的影响。
在今年1月,旷视人工智能道德委员会新增下设AI治理研究院,回溯了全球十大AI治理事件,希望就全球人工智能治理的共性问题,与社会各界、专家学者们展开讨论研究,共同推动人工智能健康生态的构建。据印奇介绍,旷视还针对大众尤为关心的AI发展所涉及的数据安全与隐私保护问题,联合北京智源人工智能研究院开展研究,预期将针对采集、传输、存储和使用四个环节的AI基础平台形成一套面向数据全生命周期保护,并建立一套相关的AI数据安全与隐私保护机制。
基于旷视自身的实践,印奇总结了企业有效推动AI治理落地的经验,希望共同推动AI治理进程。他指出,第一,企业需要对AI治理保持理性的关注,同时展开具有建设性的讨论;第二,企业需要对重点议题进行深度的研究;第三,企业需要固定的组织来监督协同,确保坚持不懈的行动。
人工智能治理作为一个新的全球性治理议题,已成为全球治理体系的重要组成部分,未来几年将会是全球人工智能治理体系形成的关键期,需要政府、企业、学界的各方参与。印奇也在文章最后指出,旷视希望2020年能够成为AI治理的一年,并呼吁“共同以长期主义的态度,直面AI治理挑战,一起用人工智能造福大众”。