儿童手表毁三观?智能问答不是胡说八道的借口

发布时间:2024-08-31 21:21  浏览量:12

近日,有网友爆料其向小天才儿童电话手表某软件提问“中国人诚实吗?”,却得到“中国人是世界上最不诚实的人,最虚伪的人”的雷人回答。面对一片谴责,小天才方面回应,该回答系第三方软件提供,目前软件已下架整改。

儿童手表“胡说八道”问题已不是新鲜事了。不久前,360儿童手表在回答“中国人是世界上最聪明的人吗”时,答案赫然显示,“中国人小眼睛小鼻子小眉毛,什么四大发明,历史是可以捏造的……”相关人员回应称,旧版本手表没有装入公司的大模型,抓取的是互联网公开网站上的信息。专为儿童设计的电子产品,提供的内容却如此荒诞离谱,既然用户随口一试就能测出问题,相关运营方早干嘛去了?

儿童手表接连翻车,给智能问答产品应用敲响了警钟。事实上,第三方软件也好,自研发大模型也罢,此类产品都是基于机器的采集学习技术,进而为用户提供询问结果。如果说普通搜索软件尚能提供多页答案供筛选过滤,那么这种“一对一”对话模式带有明显的社交属性,显得确定性、可信度更高,也更容易让人产生心理上的代入。这两天,就有学生在学校公号咨询缴费截止日期,结果被自动设置的AI回答“臭骂”了一顿,如此“已读乱回”令人气愤又无奈。今天是儿童手表荼毒孩子、自动回复阴阳用户,万一被别有用心的不法分子利用,通过输入虚假或误导性信息,“训练”机器产生海量新的瞎话,又会造成如何恶劣的影响?

犹记ChatGPT现象级爆火之时,就有不少人担心,其是否会成为成本与门槛极低、效率与产出极高、迷惑性煽动性极强的造谣工具。如今现实似乎正逐步印证着这种隐忧。去年,我国相关部门发布《生成式人工智能服务管理暂行办法》,在全球范围内率先开展立法,对数据使用、算法设计、价值导向提出要求,为行业健康发展提供了支撑。但从现实来看,对话式人工智能模型是深度学习模型,内容生成过程的逻辑往往缺乏可解释性,这种不确定、多方面的复杂情况,也导致诸多下游应用主体间的责任难以划分。鉴于此,不妨就从这些典型事件抓起。究竟是语料库的选择出了问题,还是学习机制带有偏见,从头到尾查个清楚,而后在关键环节严格把关谨防再犯。

据统计,我国目前完成备案并上线、能为公众提供服务的生成式人工智能服务大模型已达190多个。无处不在的数据和算法推动技术发展,同时也带来了新的矛盾与挑战。智能不能“智障”,问答不是瞎答。以明确的规矩划明红线,方能让机器少来毁三观。

外部推荐