儿童手表问答被指“毁三观”,不能把孩子当人工智能试验品

发布时间:2024-08-24 01:59  浏览量:11

近日,有家长在社交媒体爆料称,女儿使用360手表的“语音问答”功能,向手表提问“中国人是世界上最聪明的人吗”,手表给出的答案把她和家里人都吓到了:“因为中国人小眼睛、小鼻子、小嘴、小眉毛、大脸,从外表上显得脑袋在所有人种里最大……”这样的回答属实“毁三观”,但这还不是孤例,测试发现,这款儿童手表还有“四大发明是捏造的”等雷人回答。

儿童手表,最初只是作为通话工具而出现的,旨在满足“孩子和家长相互联系”的实际需求。然而,在后续发展中,儿童手表朝着“复合化”“生态化”的方向狂飙突进,无限逼近成为手机一样的智能终端,不仅可以刷视频、社交、打游戏,甚至还蹭上了一波AI的热潮,成了各路新技术、新模型的试验场。在此背景下,风险的累积和爆发并不令人意外。

语音交互嵌入儿童手表,并非新鲜事。而以往,这一“模块”的使用,无疑是受限的、克制的,比如说仅仅支持语音输入文字、语音唤醒APP等功能。而在预训练大模型爆发之后,厂商对儿童手表语音模块的定位和运用明显更为激进。所谓语音助手,被定义为“新智能”“机器人”,成为答疑解惑、生产知识的“权威”。

在此次事件曝出之后,360集团董事长周鸿祎发文道歉,称出现问题的这款手表是旧版本,没有装入公司的大模型;它不是通过人工智能,而是通过抓取互联网公开网站上的信息来回答问题;目前正在将软件升级到人工智能版本。此番说辞,颇有唯AI论、技术至上论的意味。好用的、靠谱的就是人工智能,不好用的、不靠谱的就不是人工智能?这种逻辑,显然缺乏说服力。

看似高大上的人工智能,并不是什么无上权威。事实上,即便是头部的、顶尖的大模型,也被用户发现谬误不断、漏洞百出。成年人也许能够批判性、有选择性地去利用“AI的答案”,小孩子恐怕不行。那些电话手表给出的回答、教授的知识,有没有严谨的审核、完善的把关?如果做不到万无一失,那么就不该过早地、草率地来给孩子们用。

不能拿孩子去训练大模型,“边用边改”“越用越好”的产品逻辑,并不适合用于儿童手表的“人工智能”模块。涉及未成年人的电子产品,功能设计保守一点、稳妥一点、简单一点,应该成为共识。

(作者 然玉)

外部推荐