AI狂飙,如何稳控“方向盘”?专家:伦理安全不会限制发展

行业资讯· 2025-03-29 09:26:59


面对人工智能(AI)迅猛发展,我们该装好“刹车”还是“踩油门”?如何平衡AI发展与监管关系,一直备受讨论。

3月28日,在2025年中关村论坛年会期间,中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅接受南都记者采访时表示,伦理安全研究,不是为了给AI装“刹车片”限制发展,而是确保技术不野蛮生长、无序发展的“方向盘”。

曾毅发现,随着生成式AI的广泛应用,一些风险问题已开始凸显。比如,AI制造大量虚假信息,影响人与人之间的信任,使得冲突加剧。虽然知道AI生成的内容并非完全可信,但有人却开始沉迷于跟大模型聊天。如果不设置安全护栏,那么AI风险将波及社会方方面面,最终给人类带来灾难性的影响。

“对于AI发展,我们可以有大胆的假设和想象,但是一定要稳健推进。”曾毅说。

南都记者注意到,3月28日闭幕的博鳌亚洲论坛2025年年会期间,AI治理与发展也是频频被提及的话题。不少观点提到,当AI能力越强,其不可控、被滥用等风险也会加剧,进而凸显治理与安全的重要性。

比如,清华大学讲席教授、清华大学智能产业研究院(AIR)院长、中国工程院院士张亚勤认为,在广泛运用Agent(智能体)之后,AI的安全风险至少上升了一倍。AI能力越大,它带来的风险越高,特别是AI从信息智能到物理智能到生物智能,风险会增加很多倍,因此在应用智能体时需要设置一些红线。

但也有人担忧,过于强调伦理安全将限制AI创新发展。这一“往监管走还是偏创新”的矛盾分歧,在今年2月召开的巴黎AI峰会上就被摆在台面上。美国副总统万斯公开抨击欧盟“过度监管”扼杀AI创新。

但是,监管与创新是不可调和的矛盾吗?曾毅认为,二者不是相互掣肘的关系。他分享了自己今年的一项研究,将十几款大模型的安全能力提升百分之二三十,对模型的问题求解能力的影响几乎可以忽略不计。这说明,在充分确保安全的情况下,AI能力几乎不受损。

谈及AI全球治理的趋势,曾毅表示,欧盟人工智能法采用分级方法监管生成式AI大模型,按算力达到的参数来确定监管的风险等级。这在技术上存在一些不合理之处——因为当一个AI大模型才开始落地时,它的参数虽小,但可能也达到了高风险等级。至于欧盟AI监管是不是过度?曾毅直言,“这种分层监管、按照不同的应用领域监管的方式,没有问题。”

同时他提到,美国在AI监管上并非全然放松。“万斯说得很清楚,过度监管会影响发展,但没有说不监管。而且,AI治理事关多方利益主体,需要协同共治。”曾毅认为,企业出于自身发展考虑,会大力呼吁行业自律,研究机构的学者在其中也发挥着推动技术向善的作用。为确保技术的稳步发展,他们都不会对AI零监管“坐视不理”。

“长远来讲,我相信美国在AI理性监管上也会有所动作。”曾毅对南都记者表示,“没有任何一个国家希望过度监管AI,但也没有一个国家会不做任何监管。”



文章链接: http://www.huangxinwei.com/aizixun/7932.html Chat AI人工智能机器人在线使用

[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表炎黄立场。