360 儿童手表智能回答出现不当言论,儿童智能手表还可信吗?
发布时间:2024-08-24 18:39 浏览量:15
周鸿祎就 「360 儿童手表智能回答出现不当言论」事件道歉,人工智能存在哪些问题?从专业角度如何解释?近日,有网友称360儿童手表的智能回答出现不当言论。8月22日,360创始人、董事长周鸿祎在其个人社交平台发布视频道歉,“经过快速检查,出现问题的这款手表是2022年5月份的一个旧版本,其中没有装入我们的大模型。它回答问题不是通过人工智能,而是通过抓取互联网公开网站上的信息来回答问题。目前我们已经快速完成了整改,删除了上述所有有害信息,并正在将软件升级到人工智能版本。”周鸿祎还在视频中对新版的大模型儿童手表的问答功能做了几个测试。周鸿祎表示,目前人工智能存在一个全世界公认的难题就是它会产生幻觉,也就是它有的时候会胡说八道,“这是大模型本身固有的特性。如何最大限度地减少幻觉?360一直在做努力,比如我们试图通过与搜索的内容做对比来减少幻觉、做好知识对齐。但有时候搜索可能会抓取到内容不正确的网页,就会导致内容的出错。”
周鸿祎的回应反应了中国AI的两个发展节点,第一个节点智能音响智能手表智能语音功能的体系,而这样的体系更多是基于信息抓取,例如抓取搜索引擎,抓取问答抓取文章的数据进行给予答案。有些智能音箱如果带屏幕的话,早期的智能语音就成为了检索工具和快速的网络指令工具,从而快速的实现目的!
而早期的很多儿童手表也是在这股智能风中崛起的!可能为了屏蔽不良信息或者未成年不能看的信息,所以设置一些关键词,会让一些信息无法检索到,无法被汇总。但如果遇见一些三观的问题,无法通过数据库监控,智能AI就无法判断究竟合适不合适!
而现如今的AI,已经融合了AI大模型,不仅仅是检索价值,还有自己会有一定的思想,能够做到足够圆滑,不再是初出茅庐!给的答案不一定走心,也不一定能够让你满意!但绝对不会犯错。有些时候现在的一些硬件厂商只要追求不犯错就行!
有没有和大厂大模型合作也许是接下来智能设备的销量关键!毕竟法律法规的问题,三观的问题,等等很多,都需要很细节的判断!
还有另外一个问题,那就是旧款设备,好像在汽车方面、在智能手表方面都出现了这样的问题,旧款设备没有跟上步伐,没有用最新的技术,成为了最终抗下所有的那个节点。那么如何预防这样的现象暴雷?也许对于硬件启动必要更新、对于硬件启动无法更新回收机制也许是对于品牌最好的保护!但这次360儿童手表这个事情,对于家长群体肯定影响很大,要不要给孩子买儿童智能手表,凭什么你说你们家的手表是100%安全的,是价值观引导正确的,是能成为孩子的“AI家教”。如果一旦出问题,那就是暴雷,那就是对于孩子是更大的伤害。
当然从技术角度也能理解,最近,360儿童手表的智能回答出现了不当言论,引发了大家的关注。360的老板周鸿祎也出来道歉了,并解释了其中的原因。其实啊,这背后反映的是人工智能(AI)存在的一些普遍问题。
第一方面、数据质量和偏见;AI系统就像个孩子,它学东西主要靠“吃”数据。如果数据里有错误或偏见,AI学到的也会是错的。比如,360儿童手表的问题,就是因为它“吃”的是一些不准确的互联网信息。第二方面、 可解释性和透明度;有时候,AI系统就像个黑盒子,你不知道它是怎么想的,也不知道它为什么会做出某个决定。这让人们很难信任它。第三方面、安全性和隐私;AI系统也可能被坏人攻击,或者不小心泄露我们的隐私。比如,黑客可能会利用AI系统的漏洞,窃取我们的个人信息。第四方面、伦理和社会影响;AI的决策有时候会涉及道德问题。比如,自动驾驶汽车在紧急情况下该救谁?这些问题需要我们认真思考。第五方面、技术局限性;AI系统有时候会“胡说八道”,产生一些与事实不符的信息。这是因为它的“大脑”里有些错误的记忆。
那么如何避免AI胡说八道呢?
第一方面要对数据清洗:在AI系统“吃饭”之前,先帮它把食物洗干净,去掉坏的、不准确的部分。第二方面、知识对齐:给AI系统一个正确的“参考书”,让它知道什么是对的,什么是错的。第三方面、多模态输入:让AI系统多看看不同的信息来源,比如文字、图片、视频等,这样它就能更准确地做出判断。第四方面、持续监控和反馈:时刻盯着AI系统,发现它说错了话,就赶紧纠正,并告诉它以后要注意。第五方面、伦理和法规:制定一些规则,让AI系统的开发和应用更加规范,符合我们的价值观和法律。
人工智能虽然很强大,但也还有很多需要改进的地方。我们需要技术、伦理、法律等多方面的努力,才能让它更好地为我们服务。对此大家是怎么看的,欢迎关注我创业者李孟和我一起交流!