生成式人工智能不能沦为造假工具
日期:2025-11-21 09:51 浏览:
中国经济网版权所有
中国经济网新媒体矩阵
网络广播视听节目许可证(0107190)(京ICP040090)
近日,一名演员遭遇“AI盗版”,同时“出现”在多个直播间带货。演员质疑他的“分身”并被屏蔽。这一事件再次引发了公众对AI(人工智能)的讨论。近年来,生成式人工智能发展迅速。曾经需要一些专业技能的视频制作现在可以轻松完成。然而,该技术被一些人滥用,也带来了一系列混乱:一些消费者提交“购物秀”以获得退款,社交平台上出现大量虚假名人照片,还有人通过欺骗伪造的音频和视频来“追捕”老年人……人工智能原本是表达创造力和提高工作效率的好帮手,但现在却面临着成为叛逆工具的风险。这个现象埃农应引起警惕。 9月份出台的《人工智能生成的合成内容标注办法》明确,人工智能生成的合成内容的标注包括显式标注和隐式标注。明显标志是指以文字、声音等方式呈现,能够被用户清晰感知的标志。当人工智能内容令人困惑甚至误导时,醒目的标识可以帮助用户快速做出判断并识别错误信息;隐式标识是指通过技术措施在合成内容生成的文件数据中添加标识,对于追踪假冒内容的来源、维护侵权人的合法权益具有重要意义。自“标识措施”实施以来,各大平台纷纷响应并出台各项细化政策,确保AI内容拥有清晰的身份,在AI内容管理上迈出了重大一步。何但仍有一些AI内容没有添加任何标识,误导了观众。为了进一步防止人工智能欺诈和混乱,需要制定多层次的管理制度。例如,加强法律保护,进一步明确人工智能诈骗的处罚标准,明确服务商、平台、用户的责任,涵盖各类诈骗情形;强化监管,开展各类人工智能诈骗专项治理工作,建立多部门协同监管体系,形成打击合力;升级技术手段,提高高精度检测能力,精准识别欺诈内容。演员“多普”的事实只是一个警钟。技术日新月异,管理也必须跟上。只有政策、监管和技术同时“打补丁”,才能有效减少人工智能欺诈,降低公众被欺骗的风险。 (作者:赵辛一叟来源:经济日报)
(编辑:付仲明)