“AI小作文”引科大讯飞、百度互掐,“AI诈骗”谁来担责-世界播报
记者 张赛男 上海报道
5月24日, 科大讯飞(002230)(002230.SZ)盘中接近跌停,起因直指两篇网传“小作文”。
盘后,科大讯飞在深交所互动易平台上对上述传言回复道,纳入实体清单消息是对2019年5月23日相关信息的复制粘贴。科大讯飞已于2019年10月被列入实体清单。关于采集用户隐私数据消息,科大讯飞则回复道,相关流传文字及截图,公司初步判断该段不实信息系某AI生成式软件生成。
(资料图片仅供参考)
科大讯飞刚刚辟谣,就引来百度文心一言市场负责人张文全在朋友圈怒怼,称:“听闻有友商把自己股价大跌,归咎于有人利用文心一言写了篇命题小作文,也是醉了。先别说小作文这事真假 (目前看来只怕是策划痕迹太重),如果AI作文有这本事,百度员工自己先炒一下自己股价不香吗?中国发展自己的大模型技术挺不容易的把精力放到正事上吧,还请友商解决好自己的问题,别动不动就碰瓷别人,大家的眼睛都雪亮的。”
5月25日,科大讯飞股价低开低走,截至收盘,报55.61元,跌幅1.7%。
尽管是两家公司的互掐,但背后也引申出来更大的法律问题:随着人工智能技术愈发普及,应当如何规避AI风险?相关平台方是否要担责?
AI小作文引来“互掐”
24日下午,市场上出现了和科大讯飞相关两个传言。第一篇小作文称,有媒体援引知情人士的话称,美国正在考虑是否将科大讯飞、美亚柏科(300188)等加入“实体名单”,禁止它们使用美国的组件或软件。第二篇小作文称,近期,科大讯飞被曝涉嫌大量采集用户隐私数据,并将其用于人工智能研究。
针对第一个传闻,科大讯飞回复称,已于2019年10月被列入实体清单。被列入实体清单后,科大讯飞已迅速切换到以国产供应链为主的非美供应链体系,继续为客户提供优质的产品和服务,业务运营未受到重大影响。
而关于第二个传闻,则是“AI诈骗”。科大讯飞称,根据5月23日下午相关流传文字及截图,公司初步判断该段不实信息系某AI生成式软件生成。并表示,“对于恶意抹黑、捏造虚假信息,损害我司名誉权的机构或个人,公司会借助法律武器保护公司和投资者利益。同时,公司高度重视企业信息安全及个人隐私信息保护,将信息安全管理作为公司发展的重要支撑战略之一,并建立了完善严格的信息安全和隐私保护体系。”
虽然并未点名是来自于哪家AI生成式软件,但从流传的截图可知,该软件的标志正是百度的大语言模型、生成式AI产品“文心一言”。
这也引来文心一言负责人直接“开怼”。5月24日晚,百度文心一言市场部负责人张全文通过朋友圈回应道,“听闻有友商把自己股价大跌,归咎于有人利用文心一言写了篇命题小作文,也是醉了。先别说小作文这事真假(目前看来只怕是策划痕迹太重),如果AI作文有这本事,百度员工自己先炒一下自己股价不香吗?”
张全文直言,中国发展自己的大模型技术挺不容易的,把精力放到正事上,请友商解决好自己的问题,别动不动就碰瓷别人。他还表示对于无端的恶意抹黑污蔑,将采取法律措施。
对于百度的最新回复,科大讯飞方面暂未向记者作出回应。
AI龙头一季度亏损
今年初以来,人工智能赛道因ChatGPT而大热,有着“人工智能国家队”之称的科大讯飞也乘着东风,迎来股价翻倍上涨,相比年初市值已飙涨500亿元,
但回到公司基本面,今年一季度,科大讯飞近三年来扣非净利润首季出现首次亏损,
一季报显示,实现营业收入28.88亿元,同比下降17.64%;归属于上市公司股东的净利润亏损5790万元,上年同期净利润为1.1亿元;扣非净利润亏损3.381亿元,上年同期为盈利1.459亿元。
对于业绩变化的原因,科大讯飞的解释是,一方面是由于外部环境的影响,二是公司被列入实体清单后,从供应链到相关的合同签署需要调整的过程。此外,就是研发投入增加。公司还表示,讯飞认知大模型研发攻关的新增投入一定程度上影响了当期利润。
科大讯飞于5月6日推出星火认知大模型,科大讯飞董事长刘庆峰表示,认知大模型成为通用人工智能的曙光,科大讯飞有信心实现“智能涌现”。当前讯飞星火认知大模型已经在文本生成、知识问答、数学能力三大能力上超过ChatGPT。
刘庆峰还透露,6月9日,星火大模型将突破开放式问答,多轮对话能力和数学能力再升级;8月15日,星火认知大模型将突破代码能力,多模态交互再升级;10月24日,星火认知大模型通用模型将直接对标ChatGPT,其中中文能力超越后者,英文能力与后者相当。
自ChatGPT大火之后,国内的人工智能领域就出现了江湖混战的局面。百度推出“文心一言”、阿里有“通义千问”、商汤推出“日日新”大模型,科大讯飞有“星火”大模型与之正面交战。
当前,市场人士普遍认为,上游的平台已经基本搭建完毕,下一阶段大模型将作为触达人工智能的关键,AI+行情将以大模型为入口向 AI+消费电子、AI+机器人等硬件领域与众多 AI+应用领域演绎。
AI诈骗谁来担责?
不过,ChatGPT的问世,也引发了各方对于大语言模型的监管与安全问题的担忧。 3月31 日,意大利率先宣布禁用ChatGPT。4月3日前后,德国、英国、韩国等监管部门纷纷采取措施加强对ChatGPT监管。
4月11日,我国也出台了第一份对生成式 AI 进行监管的文件,国家互联网信息办公室正式发布《生成式人工智能服务管理办法(征求意见稿)》。同日,美国商务部就ChatGPT等AI工具监管措施公开征求意见。各地对于大模型监管的高度重视凸显了大模型自主可控对于个人隐私、行业数据乃至国家安全的重要意义。
针对此次“AI小作文”所延伸出来的AI诈骗问题,科大讯飞在互动平台上也作出回应称:为更好地助力反诈工作,科大讯飞成立“反诈AI研究所”,在助力公安机关打击防范电信网络诈骗犯罪工作中,依托智能语音等人工智能技术应用,构建“打防宣”三位一体的反诈新格局。比如,在防范方面,科大讯飞立足电话类、网络类和短信类预警识别,进行技术研判分析,预警结果可与通信部门系统对接,对电信网络诈骗实现“置静音”“掐断”等处置。
对于AI诈骗相关的法律问题,北京市京师(上海)律师事务所律师李文玲告诉记者,“如果人工智能生成的文章存在虚假宣传或误导性陈述,可能违反有关虚假宣传的法律,引发相应的纠纷。”
她提到,我国目前对于AI自动生成文章的行为,并没有出台相应的法律专门作出规制。不过,她说,“我国《网络安全法》规定了,任何个人和组织不得使用网络侵害他人名誉、隐私及知识产权,使用AI生成虚假信息毫无疑问违反了网络安全法的相关规定。基于我国目前对涉及人工智能网络使用的法律规定,对使用AI可能发生的侵权行为,可以参照民法典及相关民事法律中的规定进行处理。”
对于谁来担责的问题,李文玲表示,如果是个人或组织使用人工智能系统生成侵犯他人合法权利的文章,使用的个人或组织应当承担相应法律责任。如果人工智能系统是由某个平台或提供者提供,该平台或提供者对于侵权行为有过错的也应当承担一定的法律责任。此外,由于人工智能侵权行为的内容多通过网络传播,根据我国民法典的规定,网络服务提供者如果对于侵权行为没有及时采取措施的,其对于损失的扩大部分,应当承担连带责任。
标签: