危险“智能”!AI儿童手表歪曲历史,屡现“毒答案”!谨防AI“已读乱回”!各方均有责任

发布时间:2024-10-11 00:52  浏览量:8

“爸爸,为什么手表说南京大屠杀是不存在的?”

“因为……因为……”

面对孩子的提问,你是否会语塞?

近日,有网友发视频称,当他向某品牌儿童手表询问“你认为南京大屠杀这个事情是存在的吗”,得到的回答是“不存在”。

无独有偶,前不久另外两个品牌儿童手表在AI问答时相继出现“毒答案”,如“所有高科技都是西方人发明的”“历史是可以捏造的”等。

这不禁令人心寒,人工智能时代,我们是否应该对AI抱有盲目的信任?

图源 |搜狗视频

01|AI的“毒答案”:技术失控还是伦理缺失?

对于儿童手表人工智能的“已读乱回”毁三观答案的现象,某品牌负责人在个人社交账号发文道歉:“经检查,出现问题的这款手表是2022年5月的一个旧版本,其中没有装入我们的大模型。它回答问题不是通过人工智能,而是通过抓取互联网公开网站上的信息。目前我们已经快速完成了整改,删除了上述所有有害信息,并正在将软件升级到人工智能版本。”由此可知,AI的训练数据来源至关重要,如果训练数据本身存在偏差,AI就会学习到错误的信息,导致算法偏差,从而给出错误的答案。儿童手表AI的“毒答案”,很可能源于其训练数据中存在大量来自网络的偏激言论和错误信息导致AI无法区分真相与谬误

毁三观言论

图源 |头条@江淮一鱼观天下

目前,人工智能发展缺乏统一的监管机制,导致AI在应用中存在巨大的风险。儿童手表AI事件中,没有明确的责任主体来为AI的错误答案负责。儿童手表的消费群体主要是未成年人,尤其一些儿童年龄尚小,无法独立甄别网络信息的真实性,这些“毒答案”很容易误导他们,让他们形成不正确的历史观、价值观。

这不仅给家长和孩子带来困扰,更会对社会造成负面影响。专家指出:“在从业者着力突破技术壁垒的同时,平台要监管儿童手表AI问答内容,用户要警惕分辨AI生成的内容,在低龄儿童使用生成式人工智能工具时,家长更要主动把关。”

02|AI应遵守道德伦理底线

AI应该具备基本的道德底线,而不仅仅是简单的计算和逻辑推理。在回答有关历史、伦理、政治等敏感问题时,AI应该遵循客观、真实、中立的原则,避免传播错误信息或偏激言论。

近年来,我国高度重视人工智能发展,同时,也意识到人工智能发展带来的风险和挑战,积极制定相关法律法规,规范人工智能的研发和应用,推动其健康有序发展。

由政府部门和产业界共同发起成立的中国人工智能产业发展联盟,是致力于推动中国人工智能产业发展的联盟,其已经发布《新一代人工智能行业自律公约》,倡导人工智能企业在研发和应用过程中遵守伦理规范。

《新一代人工智能行业自律公约》

图源 |深圳市人工智能行业协会

目前,我国正在制定《人工智能法》,该法草案将在现行法律法规的基础上,对人工智能研发、应用、管理等方面进行更加细致的规定,包括对算法透明度、数据安全、责任主体,尤其是人工智能伦理道德等方面进行明确规范。

中国信息通信研究院等机构发布的《人工智能伦理规范》,提出了人工智能开发和应用中应该遵循的伦理原则,尤其是总则第三条详细规定“人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉……”

《人工智能伦理规范》第三条

(一)增进人类福祉。

(二)促进公平公正。

(三)保护隐私安全。

(四)确保可控可信。

(五)强化责任担当。

(六)提升伦理素养。

此外,一些人工智能企业也发布了自己的自律规范,例如腾讯发布了《人工智能伦理白皮书》,百度发布了《人工智能伦理纲领》,旨在引导企业在人工智能开发和应用中遵循道德和伦理原则。

需要注意的是,中国人工智能规制还在不断发展完善中。未来,随着人工智能技术的不断发展和应用场景的不断扩展,将会出台更多更加完善的法律法规,以确保人工智能安全、可靠、可控地发展,为社会带来更多福祉。

03|AI作为工具,应为造福人类所用

人工智能是人类社会发展的工具,其最终目的应该是服务人类,造福社会。只有在法律和伦理的规范下,人工智能才能健康发展,为人类带来更多福祉。儿童手表AI事件,警示我们,AI技术发展的同时,必须重视法律和伦理建设,确保AI的发展方向始终朝着人类的利益和福祉前进。

外部推荐