中新网北京11月14日电(中新财经 宋宇晟 张琼瑶 阎红心)在过去的两年里,人工智能从一个科技领域的小众名词迅速成为人人都在谈论的显学。当下人工智能发展是否存在泡沫?AI“杀手级”应用还有多久才能出现?我们该如何看待技术发展带来的新风险?近日,智源研究院院长王仲远接受了中新财经记者专访。
AI“杀手级”应用何时出现
“技术的发展从来不会是一帆风顺的,通常都是螺旋式上升的。”
在王仲远看来,人工智能技术的发展也是如此。在过去七八十年的发展历程中,该技术经过了“三起两落”,直到本世纪,产业化进程才初见端倪,而两年前ChatGPT-3的出现,带来了一波新的基于大模型技术的人工智能浪潮。
“这意味着,我们正在经历从弱人工智能时代到通用人工智能时代的转变,这是我们觉得跟过往尤其不同的地方之一。”
虽然到今天为止,能够被人们称为“杀手级”的人工智能应用还未出现,也出现了一些中国足彩网:“人工智能泡沫”的讨论和质疑,但王仲远相信,“技术本身不是泡沫”。
他告诉记者,事实上,大模型技术已经开始发挥作用并转化成生产力了。比如,利用相关技术开发各种各样的效率型工具,用于会议纪要、生成图像素材进行广告投放、辅助设计师创意工作等。但是,当前对人工智能能力的感知还局限于部分领域。
“我们一直希望C端AI‘杀手级’应用能够出现,但目前还需要继续提升基座模型的能力,进一步解决‘AI幻觉’等问题。”
“一直在思考如何对抗AI风险”
通常,“AI幻觉”指大语言模型提供有争议的答案。而这些答案可能造成的不良后果也让人们更加关注潜在的“AI风险”。
就在今年10月,外媒报道称,美国一青少年因迷恋人工智能聊天机器人而自杀,他的母亲对相关公司提起民事诉讼,指控其存在过失导致他人非正常死亡和欺诈的行为。
“新技术的发展在带来便利的同时,也会产生一些新的风险。”对此,王仲远指出,AI安全问题并非今天才出现,甚至过去10年一直存在,比如虚假信息、虚假图片等,而从业者也一直在想办法去对抗这种风险。
王仲远认为,大模型的智能化水平、通用化水平确实与以往相比都有更大提升,虽然当前人工智能的水平还未达到已出现重大风险或重大威胁的程度。“但从技术的发展趋势看,我们预判人工智能未来确实存在潜在的可能性风险。”
“为了预防或降低这样的风险,需要多方努力,既有技术层面的努力,也需要政策法规方面的努力,当然也需要更广泛的安全教育和相关企业的共识,这些都要同步推进。”他说。
“不做纯空中楼阁式的科研”
但该如何“同步推进”?
“人工智能的系统性创新,需要算法、工程、数据、评测等团队深度协同。”
王仲远认为,在这一背景下,作为新型研发机构的智源研究院正好填补了其中的空白。
事实上,将企业掌握的资源与科研院所的人才相结合,最终导向产业创新,在国内相关领域已形成共识。
“过去这几年,智源一直在摸索创新的新模式,尝试了‘青年人挑大梁’,不看‘帽子’,不论资排辈,让青年科研人员没有束缚。”
王仲远说,已成立6周年的智源研究院,希望能做“高校做不了、企业不愿意做的事情”,即做未来3到5年乃至更长时间的基础性研究,但不做空中楼阁式的研究。“我们希望这样的技术研究最终能够赋能整个产业。”
他告诉记者,人工智能技术目前仍处于“基础技术突破”的阶段,当基础模型能力达到一定水平后,才会产生应用层面的创新,并形成产业级场景应用。
王仲远表示,在当下这一阶段,恰恰需要更多耐心资本真正投入硬科技领域,促进这一轮科技的发展。“就像当年的 PC互联网时代、移动互联网时代都经历过的那样。只是我们现在还处在AI技术爆发期和硬科技投资期。”(完)