当“李逵”遇上“艾李鬼”
日期:2025-11-17 09:47 浏览:
中国经济网版权所有
中国经济网新媒体矩阵
网络广播视听节目许可证(0107190)(京ICP040090)
与此同时,同一个人,穿着不同的衣服,“出现”在不同的直播间推销产品,其动作和举止与本人十分相似。这是11月初媒体报道演员温峥嵘遭遇“艾盗版”的场景。 “你是温峥嵘,那我是谁?”他询问,却被直播账号屏蔽。这个案例让公众认识到人工智能也可以成为诈骗的“放大器”。事实上,这并不是一个孤立的案例。不久前,央视主持人李梓萌的AI形象被利用,进行与事实不符的营销宣传。对此,北京市场监管部门发布了全国首例“人工智能虚假广告案”。这起“第一案”的重要性并不在于罚款数量不少,但也暴露了一个迅速扩大的灰色地带——创新与滥用之间的界限需要被拉低。从“李逵打李鬼”到“眼见为实”,人工智能在释放巨大创新红利的同时,也让社会的基础“信任”受到了前所未有的考验。法律法规和平台政策必须回答同一个问题:当“真实”与“虚假”的界限被算法模糊时,我们如何对真相负责?本次会议厅环节,新华每日电讯思想研究与传播中心邀请联盟社区和平台嘉宾共同探讨“人工智能改变广告”逻辑的法律边界和管理,力图在多种视角的交锋中找到创新与监管、效率与安全的平衡点。 【本期嘉宾】张凌瀚 中国政法大学赵景武教授北京航空航天大学法学院副教授、上海汉斯桂“?主持人:公众对此次盗版事件最大的困惑是:中国网信办、工业和信息化部、公安部、国家广电总局联合发布的《人工智能生成合成内容标注办法》将于9月1日实施,明确要求对内容进行身份识别。”现实中,为何“艾力鬼”现象仍时有出现?赵景武:强制标签制度被寄予厚望,但它不是“万能钥匙”。它只是与人工智能管理系统的一个链接。国内合规的人工智能服务商大多实际执行了标签要求。真正的问题在于“走弯路”——他们也用海外代或者自己搭建系统来生成内容,从而避免平台的管理并且不受标签机制的约束。因此,标签制度本质上会解决“可识别的资源”,但很难屏蔽“不可靠的灰色资源”。如果没有全链条管理,单纯依靠显性或隐性的识别很难真正打破信任壁垒。主持人:赵教授指出了标签制度的“回避”问题。李律师,您长期以来一直在处理前线案件。从法律执行的角度来看,标签制度启动如此困难是否还有其他原因?李敏:主要有三个原因。首先,人工智能技术的特点使得监管监控难度加大。不法商贩花几十块钱、几分钟时间,制作出“明星带货”视频,然后利用多个账号多次发布在不同的平台上重复一遍。不仅传播速度快,还可以通过玻璃翻转、图像遮挡等方式避免贴标要求。第二个是平台的技术限制和自我管理机制。人工智能造假的形式每天都在变化。如今,大多数平台都会事后处理此问题 - 在删除内容之前等待用户投诉和匹配算法。这个速度低于AI作弊速度。最后一项是目前最困难的:保护权成本太高,违法成本太低。成为假的名人需要聘请律师、公证员和杯子。维权周期长、费用高,赔偿金额往往不足以支付费用。违规者可以通过更改账户来“完全健康地复活”,对违规者的影响最小。主持人:技术轮换、平台滞后、保护的高成本权利。陆宁宁女士,从平台的角度来看,真的像外界想象的那样“被动”、“落后”吗?鲁宁宁:这不仅是技术挑战,更是信任危机。恶意滥用AI技术能力获取流量和营销牟利,一直是我们平台所反对的不正之风。平台持续强化显式和隐式AI水印识别检测体系,开发遗忘深度识别模型,对假冒作品进行聚类分析和算法拦截。今年以来,我的平台已清理了10万多个涉及滥用人工智能技术的虚假名人视频,处理了1400多个非法帐户。我们知道,人工智能的挑战必须用人工智能来应对。平台管理的目的不仅仅是“拦截”非法视频,而是让技术防御更快一步比伪造。 “避风港”还是“红旗”:平台的边界 倡导者平台:刚才我们注意到人工智能造假带来的问题已经从“能不能被发现”转向“谁负责”。仅一个平台就屏蔽了超过10万个非法视频。这个数字不小,但公众仍然感觉AI造假似乎是“烧不完的野火”。这背后的争议非常现实:平台只需要遵循“安全港原则”在收到举报后删除内容并完成事后补救,还是需要遵循“红旗原则”,即利用技术在风险出现之前提前识别和预防?这两个角色对平台的职责完全不同,直接影响管理的效果。李敏:“通报-删除”机制是法律规定的最低标准,基本逻辑是被动应对。然而,随着人工智能识别和追溯技术扎根后,“技术不能”的理由就变得难以成立。如果平台在技术上具备识别和筛查能力,但未能采取必要措施,则可能被视为未履行“合理注意义务”。尤其是当平台不仅仅是存储空间,而是参与算法推荐和内容分发时,迪特四人就想到了更多的义务。在我看来,平台的责任不应该只是“等着别人提醒你”,而应该是主动管理、主动预防——从被动的“避风港”变成主动的“避风港”。最后的“安全舵手”。主持人:我们注意到,在实践中,违法行为的判断并不总是非黑即白的。比如,如果生成的AI不是温峥嵘本人,而是一个与他“长得很像”的人,那么平台应该如何定义?李敏:这个问题很现实。我的观点是——只要是“rec民法典中判断图像权利的关键不是该人是否是“再创造”的,而是是否能够指向某一自然人。所谓“识别”不仅包括相似的面部特征,还包括声纹、体态、妆容、场景风格等mga综合特征。只要这些特征能让公众误认为是某个人,那么侵权红线就被跨越了。换句话说,重要的不是“看起来”,而是让人“思考”。 主持人:李律师一直在研究数字管理这个技术问题,能否解决这个问题?我谈谈一些网络平台早年面对违法信息分析时的态度。从联盟角度来看,标签规定明确了平台的标签义务。未来,可能会通过立法或行业标准进行监管,迫使各大平台将追溯标记嵌入到制造过程中。张凌瀚:我同意。内容生成过程的“可追溯”是关键。在高风险场景下,必须通过强制性标准明确“做什么”的底线。管理层必须关注技术事实和合规结果。主持人:这也意味着平台有更重的责任——判断真假“误识”的风险。平台在管理上也会处理这种“雷同”的问题吗?卢欣宁:这种kulay-aho地区是管理最困难的地方。我们的方法是利用情境和意图作为判断的标准。如果AI生成的内容具有误导性,例如冒充名人推销商品,或者使用虚假身份带货,我们将在AI滥用管理范围内进行处理。与此同时,我们还发现了另一个类似的问题——“假角色”。有些账号包装成“情感导师”、“教育专家”,通过制造焦虑来推销产品和课程。这与“名人相似”问题非常相似,即使用虚假身份来获取信任。我们采取“人工智能审核+人工审核”的双重机制,对此类账号进行分级处罚,对多次违规的账号进行直接封禁。在平台管理上,我们希望注重“误导”而非“千篇一律”,让边界既灵活又底线。主持人:张凌瀚教授,您长期以来一直在研究管理系统。您认为“避风港”和“红佛罗里达”之间是否存在平衡点?张凌瀚:我不同意将平台责任问题解释为“要么放任,要么封锁”的选择。人工智能管理更合理的方向是“放手、温柔、排序、排序”。对于那些造成明显社会和技术损害、可识别的高风险应用——比如没有标识的名人仿冒品——应该明确划定红线并严格执行,包括知名标识的定义。监管机制、滥用禁令、跨平台联合制裁等,应该滚动评估和调整,我经常说:“用可控性换取可用性”——通过成熟的技术方法和可执行的制度安排来换取有用的创新的自由,法律的目的不是阻止技术的发展,而是让变革持续下去。om《九龙治水》到《协同管理》主持人:张教授,“风险分级”的想法确实可行。但实际上,还有一个问题——像这样的人工智能欺诈事件,实际上涉及到广告的管理,例如内容检索、涉嫌欺诈的调查。市场管理部门负责广告,网信部门负责内容,公安部门负责处理涉嫌诈骗的线索。我们目前的去中心化治理结构在处理这种新型问题时会遇到挑战吗?张凌瀚:是的,这种分散的结构实际上会造成执法空白,推卸责任。解决办法不在于简单的机构合并,而在于把系统治理纳入机制。短期内应建立高效的跨部门协调机制相互承认执法标准。比如,互联网信息管理内容的生成、广告经营者的市场监督管理职责、公安等要形成闭环、协同处置诈骗链条。长远来看,应通过更高层次的人工智能立法,明确“谁负责、何时介入、如何衔接”的通用标准,弥补各自为政、缺乏协调的短板。主持人:在国家级人工智能法规出台之前,我们看到北京、上海等地积极推动地方立法。李律师,您如何看待“本土优先”?李敏:地方法律绝对可以成为国家人工智能治理的“压力试验场”。北京、上海、深圳都在探索人工智能治理法规,例如建立人工智能产品清单和审查机制。这些实践可以使国家法律更具可操作性,并避免停留在原则层面。地方立法先行,可以及时应对风险,为国家立法积累样本,减少制度设计的试错成本。张凌瀚:我支持地方政府“先行先试”的做法。地方试点可以“暴露”现实问题,为中层顶层设计提供经过验证的样本。关键是打通反馈链:地方政府明确情况、评估风险,中央据此进行比例分析,完善政策大学。主持人:除了部门合作之外,还包括“共治”吗?当公众面对真假难辨的人工智能内容时,他们是被动的“受害者”,还是主动的“共治者”?赵景武:“AI素养”不仅是识别能力,更是社交能力合理使用人工智能的能力。我们需要告知公众,人工智能生成的内容本身并不是有害的,而是对这项技术的滥用。比如,用AI换脸来自保是可以的,但如果用来不当推销商品,那就触犯了违法的界限。因此,扫盲教育需要融入学校教育体系,也需要通过媒体传播不断向社会大众普及。张凌瀚:这是一个伟大的升华。评分制度是“他律”,识字是“自律”。教育和媒体传播必须同时进行。同时,伦理机制也应该在制度不完善的情况下进行“引领预防”。比如“AI复活死者”,获得近亲明确同意是最低标准;未经同意“复活”涉及人的尊严,所以“技术可行性”不应该是我们的ed 取代“合法性”。主持人:当然这种“协同管理”也离不开平台。平台在整个管理体系中扮演什么角色?鲁宁宁:我们认为“管理”不是一种管理,而是监管部门、平台、用户、社会的共同管理。我们正在探索如何在用户端增强“AI对信号的识别”,让公众在面对AI生成的可能内容时更容易做出判断。未来,平台将继续用更高的标准、更精准的技术、更开放的态度,打破“有害信息利益链”,守护网络空间的真实性和清晰度。主持人:感谢四位嘉宾的精彩分享。今天的讨论让我们再次认识到,人工智能技术如浪潮般前进,法律、伦理和行政也必须及时有效地跟进。我事实上,这带来了真正的管理挑战。当真正的需求得到证实时,信任本身就成为社会的成本。未来的人工智能管理必须在一个有机的网络中运作——法律提供方向,平台承担责任,技术处理底线,公众学会认知和共治。在AI越来越聪明的时代,一定是系统有温度、技术有边界、大众有判断力的时代。
(编辑:杨淼)