净化网络空间:打响清朗·AI技术滥用三个月攻坚战役
4月30日,“网信中国”公众号发布消息称,为推动人工智能服务与应用的规范化发展,维护行业健康发展,同时切实保护公民权益,中央网信办近期发布了相关通知,在全国范围内启动了为期三个月的“清朗・整治AI技术滥用”专项行动。 这一举措无疑是对当前AI技术广泛应用背景下潜在风险的一次重要回应。随着人工智能技术的快速发展,其在各领域的渗透日益加深,但也伴随着一些不容忽视的问题,如虚假信息传播、隐私泄露以及不当内容生成等。这些问题不仅威胁到社会秩序,也可能对公众利益造成损害。因此,此次专项行动的展开显得尤为必要。 从长远来看,通过集中整治AI技术滥用现象,不仅能净化网络环境,还能进一步明确行业边界和发展方向,促使从业者更加注重技术伦理和社会责任。同时,这也向外界传递了一个积极信号:技术创新必须以合规为前提,任何突破法律底线的行为都将受到严惩。希望在未来几个月内,相关部门能够扎实落实各项措施,确保行动取得实效,并为后续相关政策法规的完善积累宝贵经验。
中央网信办相关负责人指出,此次专项行动将分为两个阶段进行。第一阶段重点在于对AI技术的源头治理,全面清理并整治违规的AI应用程序,加强对AI生成与合成技术及内容标识的管理,推动各网站平台提高检测与鉴伪的能力。第二阶段则着重针对利用AI技术制造传播谣言、不实信息、色情低俗内容,以及假冒身份、参与网络水军活动等突出的问题,集中清除相关的违法不良信息,对违规账号、MCN机构和网站平台予以处置处罚。
附具体内容如下:
第一阶段重点整治 6 类突出问题:
近期有部分违规的人工智能产品在市场上悄然流行。这些产品利用生成式人工智能技术为公众提供服务,却未按照规定完成大模型的备案或登记流程。更令人担忧的是,一些产品甚至提供了“一键脱衣”等严重违反法律法规和伦理道德的功能。此外,在未经用户明确授权的情况下,这些产品擅自采集、克隆以及编辑他人的声音、人脸等生物特征信息,不仅触犯了法律,还对个人隐私构成了严重侵害。 我认为,这种现象暴露出当前人工智能行业在监管方面的不足。尽管技术发展迅速,但相关法律法规和技术标准的完善速度似乎未能跟上步伐。这提醒我们,技术创新固然重要,但绝不能以牺牲社会公德和法律底线为代价。希望相关部门能够加强对人工智能领域的监督力度,制定更为严格的技术规范与审查机制,确保技术进步始终服务于人类社会的整体利益。同时,也希望企业能更加注重社会责任感,在追求经济效益的同时坚守法律和道德底线。
二是传授、发布非法AI产品教程及商品信息。提供使用非法AI产品制作虚假换脸视频、替换声音文件等教程详情。销售非法的“语音合成软件”“换脸程序”等商品信息。对非法AI产品进行宣传、炒作和推广。
近期有报道指出,部分人工智能模型在训练过程中存在语料管理上的漏洞。一些不当行为包括采用侵犯他人知识产权或隐私权的内容,甚至利用网络爬虫获取虚假、无效或不实的信息作为训练素材。此外,还有非法来源的数据被引入其中,而相关机构却未能建立起完善的语料筛选与清理机制,导致违规内容长期存在于训练体系内,未能及时得到整改。 这种现象令人担忧,因为它不仅可能触犯法律,还容易对社会造成误导。尤其是在信息传播日益依赖算法的时代背景下,未经严格审核的训练数据可能会放大偏见,加剧虚假信息的扩散风险。因此,各企业与研究机构应当高度重视这一问题,建立健全的语料管理体系,定期开展自查自纠工作,确保所有用于训练的数据都符合法律法规和社会伦理的要求。唯有如此,才能真正发挥人工智能技术的价值,促进其健康有序发展。
当前社交平台在安全管理方面存在明显不足,缺乏与自身业务规模相匹配的内容审核和技术意图识别能力。同时,对于违规账号的管理机制也不够健全,未能形成有效的约束力。此外,平台并未养成定期开展安全自评估的习惯,这使得潜在风险难以被及时发现和处理。更值得关注的是,社交平台对通过API接口接入的服务项目底数不清,例如AI自动回复等功能的监管存在漏洞,给用户信息安全带来了隐患。 我认为,社交平台作为信息传播的重要载体,必须高度重视安全管理工作。一方面,应加强技术投入,完善内容审核和意图识别系统,确保平台内容健康有序;另一方面,要建立健全的违规账号管理体系,对违法行为零容忍。同时,定期进行安全自评估是发现问题、防范风险的有效手段,不容忽视。只有这样,才能真正保障用户的合法权益,维护网络环境的安全稳定。
五是未履行内容标识义务。服务提供者未能对深度合成内容进行隐式或显式的内容标识,也未向用户提供显式内容标识的功能。与此同时,内容传播平台没有实施生成合成内容的监测与甄别工作,致使虚假信息得以传播,误导社会公众。
六是重点领域安全风险。已备案 AI 产品提供医疗、金融、未成年人等重点领域问答服务的,未针对性设置行业领域安全审核和控制措施,出现“AI 开处方”“诱导投资”“AI 幻觉”等问题,误导学生、患者,扰乱金融市场秩序。
第二阶段重点整治 7 类突出问题:
一是利用 AI 制作发布谣言。无中生有、凭空捏造涉时事政治、公共政策、社会民生、国际关系、突发事件等各类谣言信息,或擅自妄测、恶意解读重大方针政策。借突发案事件、灾难事故等,编造、捏造原因、进展、细节等。冒充官方新闻发布会或新闻报道,发布谣言信息。利用 AI 认知偏差生成的内容进行恶意引导。
二是利用 AI 制作发布不实信息。将无关图文、视频拼凑剪辑,生成虚实混杂、半真半假的信息。模糊修改事件发生的时间、地点、人物等要素,翻炒旧闻。制作发布涉财经、教育、司法、医疗卫生等专业领域的夸大、伪科学等不实内容。借助 AI 算命、AI 占卜等误导欺骗网民,传播迷信思想。
三是利用 AI 制作发布色情低俗内容。利用 AI 脱衣、AI 绘图等功能生成合成色情内容或他人不雅图片、视频,衣着暴露、搔首弄姿等软色情、二次元擦边形象,或扮丑风等导向不良内容。制作发布血腥暴力场景,人体扭曲变形、超现实怪物等恐怖诡谲画面。生成合成“小黄文”“荤段子”等性暗示意味明显的小说、帖文、笔记。
四是借助AI技术冒充他人进行侵权违法行为。利用AI换脸、语音合成等深度伪造手段,假扮专家、企业家、明星等公众人物,误导网民,甚至借此获利。借助AI对公众人物或历史人物进行恶搞、诋毁、歪曲或篡改。通过AI伪装成亲友,实施网络诈骗等违法活动。不恰当地运用AI“复活”逝者,过度使用逝者的个人信息。
五是利用 AI 从事网络水军活动。利用 AI 技术“养号”,模拟真人批量注册、运营社交账号。利用 AI 内容农场或 AI 洗稿,批量生成发布低质同质化文案,博取流量。使用 AI 群控软件、社交机器人批量点赞跟帖评论,刷量控评,制造热点话题上榜。
六是涉及AI产品服务和应用软件的违规行为。包括制作及传播模仿他人、套用外壳的AI网站和应用程序。某些AI应用提供违规功能服务,比如创作类工具具备“热搜热榜热点内容扩写生成”等功能,而AI社交、陪聊类软件则存在低俗、软色情对话内容。此外,还有通过售卖、推广引流等方式提供违规AI应用、生成合成服务或相关课程的现象。
近年来,侵害未成年人权益的现象屡见不鲜,其中AI应用程序的问题尤为突出。一些应用通过设计精巧的机制诱导未成年人沉迷其中,甚至在所谓的“未成年人模式”下,也暗藏不良信息,对未成年人的身心健康造成严重影响。这种现象不仅反映了技术滥用的问题,更暴露出平台监管的漏洞。 在我看来,这类问题的根源在于企业社会责任的缺失和技术伦理的忽视。企业在追求经济利益的同时,应当更加注重产品对社会尤其是未成年人群体的影响。此外,监管部门也需要进一步加强执法力度,完善相关法律法规,确保技术发展始终服务于公共利益。 保护未成年人免受不良内容侵害,不仅是家庭和学校的职责,更是全社会共同的责任。希望各方能够携手合作,为未成年人营造一个健康、安全的成长环境。
中央网信办相关负责人指出,各地网信部门需深刻认识到此次专项行动在防控AI技术被不当使用、保障网民权益方面的重要性。应主动承担属地监管职责,督促各网站平台按照专项行动的具体要求,完善AI生成内容的审核体系,提高技术监测水平,并确保整改措施到位。同时,加大人工智能政策的宣传力度,普及人工智能知识,帮助社会各界正确理解和运用人工智能技术,形成广泛的社会共识。
免责声明:本站所有文章来源于网络或投稿,如果任何问题,请联系648751016@qq.com
页面执行时间0.017567秒