欢迎访问今日热搜榜

“大模型至少有10年红利期”!周鸿祎最新发声

频道:动画电影 日期: 来源

在周鸿祎看来,大模型的安全问题超越了内容安全,应该训练另一个GPT来监督GPT;未来如果只讲发展不讲安全,该大模型会走不远。据其透露,360已启动了安全团队在人工智能安全上的研究,首创了一个大模型安全风险的评估体系AISE,下一步将会公布。

但还有一种方式,是把大模型做小,即把它用在垂直领域,让甚至可以安装在一台电脑或者手机上。如果能装在手机上,就意味着大模型将来可以部署在边缘技术设备,甚至部署在IoT设备上。

“今天的挑战在于,用什么样的数据做预训练,用什么样的题海战术做有监督的微调。最后还有一个很重要的,就是这模型必须要在互联网上找到用户使用,因为用户的使用他想到了各种例子,远远超越我们自己内部的测试。”

其他的公司虽然也都用大模型,我们就比较鸡贼地用大模型解决很多现实的问题,比如广告点击率高一点,推荐的内容好看一点,给你推荐的视频让你欲罢不能,大家都忙着做跟现实场景的结合。”

“不管在哪一个国家做大模型和生成式AI,都要保证输出的内容不能违背当地的法律法规,要符合当地的道德习俗。原来我认为这是Mission Impossible(不可能完成的任务),但在工程人员的研究下,我们找到了一个突破。怎么保证GPT不说错话?答案是训练另外一个GPT来监督这个GPT。”周鸿祎表示。

“大模型可以让一个小白变成专家,也能让一个很低水平的、原来当不了黑客的人,变成能写攻击代码、钓鱼邮件、研究系统漏洞的坏家伙,使得干坏事的成本降低了很多。”

而在6月10日的北京智源大会上,OpenAI联合创始人、CEO萨姆·奥特曼(Sam Altman)当时在演讲中表示,“AI安全是最新的技术,需要思考关键的AI安全问题,需要构建安全的分类器和检测器,以监测符合用户政策的情况,这一点很重要。”

萨姆·奥特曼当时称,应该推动并引导与安全研究一致的投资。他当时表示,正在投资几个新的且有望能取得成果的方向,其中之一是可扩展的监督,尝试使用AI系统来协助人类监督其他AI系统。

“未来如果只讲发展不讲安全,这个大模型是走不远的。我们把安全能力和大模型的研发结合起来,一方面用安全加强大模型的能力,另外一方面用安全使大模型更加可控。”周鸿祎强调。

从相关企业的情况来看,在科大讯飞、三六零之后,6月16日,华为人工智能框架生态峰会也将在上海召开,举办“上海昇思AI框架&大模型创新中心启动暨伙伴入驻仪式”,以共建AI开源生态。

关键词:坏家伙