养生类谣言为何像长了眼睛,专挑老年人推送?刚搜索了某方面内容,类似推送为何源源不断向你“投喂”?似乎有一只看不见、摸不着的“手”,采集行为、归纳习惯、掌握爱好,这就是我们常说的“算法推荐”。
去年11月,中央网信办等多部门开展“清朗·网络平台算法典型问题治理”专项行动,行动开展以来,针对网民反映强烈的算法推荐加热低俗信息、加剧“信息茧房”、加重观点极化等问题风险,中央网信办督促指导重点平台针对性优化信息推荐算法功能、调整信息推荐算法规则。
目前,算法推荐最常见的问题是什么?相关重点平台围绕哪些方面进行了优化调整?成效如何?
什么是“算法推荐技术”?
算法的专业名词叫作“算法推荐技术”。它通过抓取用户日常的使用数据,分析得出人们的行为、习惯和喜好,进而精准化地提供信息、娱乐、消费等各类服务。
2022年3月1日,《互联网信息服务算法推荐管理规定》正式施行。《规定》明确,应用算法推荐技术,是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息。
各类提供算法推荐服务的互联网公司几乎都在监管范围内,比如说各类短视频平台、电商平台、社交平台以及餐饮外卖平台等。
算法推荐技术导致
“信息茧房”等突出问题
个性化推荐技术出现的本意是帮人们应对信息过载,过滤掉不需要的信息,提高信息获取的效率,但是随着技术的广泛应用,却暴露出一些突出问题。
武汉大学信息管理学院信息管理科学系教授:首要问题就是“信息茧房”,内容同质化。个性化推荐算法以用户既有偏好为导向,不断强化内容选择,这会使用户反复接触相似观点和信息,从而将自身困于“信息茧房”当中。这种封闭的信息环境会限制用户对复杂社会现实的全面认知,影响其对社会多样性的理解和包容。
第二个方面就是“劣币驱逐良币”,内容质量下降。推荐算法往往根据用户的点击率、停留时间这样的一些行为数据进行优化,这会导致部分创作者趋向于生产迎合眼球、情绪煽动甚至是带有误导性的内容。这样不仅导致优质信息被边缘化,也会使得平台内容生态趋向肤浅、碎片化。
第三个方面就是“算法黑箱”,缺乏透明度。目前大多数个性化推荐系统的运作机制对用户来说是不可见的,所以用户有的时候并不知道自己为什么会接收到特定内容。这种“黑箱”操作不仅削弱了用户对平台的信任,也使得算法有可能被用于操纵舆论、控制热搜,从而影响信息的公正传播。
第四个方面是诱导沉迷,导致伦理失范。有一些技术弱势群体,像未成年人和老年人,他们由于缺乏辨识能力和自控能力相对较弱,更容易受到算法推荐的影响。比如说未成年人可能在算法的引导下沉迷于短视频或游戏,影响学习和身心健康。
第五个方面是隐私侵犯和数据滥用的问题。为了实现精准推荐,平台通常会收集大量用户敏感数据来构建用户画像,包括位置、浏览记录、消费记录、社交关系等数据。这些数据很容易被用于商业操控、价格歧视或者第三方非法交易,这样会威胁用户的数字安全与信息自主权。
重点平台围绕
哪些方面进行优化调整?
针对前面提到的系列问题,中央网信办督促指导重点平台针对性优化信息推荐算法功能、调整信息推荐算法规则。近日,相关重点平台围绕正能量内容加权推荐、用户自主选择权保障、推荐内容多样性优化、提升算法透明度等核心环节,系统性优化完善多项功能。平台具体都进行了哪些优化调整?
在提升算法透明度方面:公开算法运行规则,推进透明展示工作,保障用户知情权。
抖音通过开设“安全与信任中心”网站、举办开放日活动等方式,向公众阐释推荐逻辑、干预机制及治理成效;微博提升热搜算法透明度,公示上榜规则、数据规则,上线热搜热度标签,标示热度背后的推动因素;微信视频号通过通俗易懂的图文、视频方式向用户公示,发布《一图读懂微信视频号算法推荐》《算法破茧系列》。
在破除“信息茧房”方面:创新推出“茧房评估”“一键破茧”等功能,帮助用户防范“信息茧房”风险。
抖音全面升级“使用管理助手”,创新内容偏好评估功能,以可视化形式呈现用户近期浏览内容。小红书设置“内容偏好评估与调节”“探索更多”功能,方便用户一键操作,浏览更多元丰富的推荐内容;快手依托正能量算法增加对“正向”“有用”“温暖”“信任”等内容挖掘,在算法推荐中充分呈现。
在完善推荐内容审核方面:不断健全推荐内容审核机制,加强正能量内容推送,防范算法推荐低俗不良信息。
微信视频号完善“好友推荐”和“算法推荐”双重机制,不断迭代升级识别打击模型,严禁低俗恶俗等典型不良信息进入推荐池。抖音创新推出热点当事人核实机制,防止摆拍造假、仿冒蹭热、拼凑剪接等恶意传播行为。
在用户赋权方面:持续优化兴趣偏好管理、内容负反馈等功能设置,便于用户自主调节优化算法推荐内容。
快手为用户提供便捷、精细的兴趣偏好管理功能,用户可根据自身喜好,滑动对应兴趣标签,调节不同内容推送强度。微博设置不感兴趣、不看此博主、内容质量差等多种负反馈选项供用户选择,精准响应用户需求。
平台应完善内容审核机制
跳出“唯流量论”
针对信息茧房、推荐低俗不良信息等突出问题,在治理方面如何能取得更好的成效?专家认为,关键在于提升算法的多样性和开放性。
武汉大学信息管理学院信息管理科学系教授 姜婷婷:在治理低俗不良信息方面,需加强算法的价值引导。一些平台为追求流量,利用算法技术片面满足人们的猎奇心理,推送那些无原则迎合的内容,导致内容质量下降,影响舆论生态。
对此,平台应该完善内容审核机制,结合人工审核与AI识别,严格控制低俗、暴力、血腥等内容的传播。通过技术手段提升优质、权威、正能量内容的可见度,构建多元、健康、有序的信息生态,实现社会效益与平台发展的双赢。
同时,监管部门应该加强事中、事后的过程监管,依法严厉打击相关违法违规行为,增强网络执法威慑力。
此外,平台企业作为算法推荐的实施者,必须承担起主体责任。从商业逻辑中跳脱“唯流量论”的短视思维,在内容审核、算法优化、用户保护等方面主动作为。
不被技术“塑形”
主动跳出“信息舒适圈”
打破信息茧房,平台又该如何为用户提供便捷、精细的兴趣偏好管理功能?专家提醒,在面对海量信息推荐流时,用户也要增强主体意识,主动跳出“信息舒适圈”。
武汉大学信息管理学院信息管理科学系教授 姜婷婷:我们发现要促进用户主动“破茧”,还需要采取一些更精细化的用户赋权方式。我们目前重点关注的是推荐算法的“示能性”,具体到推荐系统中,就是让用户看得见、理解得了、用得上的界面设计元素,帮助他们参与到推荐逻辑中。比如,清晰标注内容的主题、开放兴趣标签的编辑入口,或是提供可视化的偏好设置等。
最后,这些精细化兴趣偏好管理功能的有效实施离不开用户自身的算法素养。我们需要进一步加强对公民的智能素养教育,让大家意识到自身的信息消费正在被技术“塑形”,在面对海量的信息推荐流时,大家应该增强主体意识,主动跳出“信息舒适圈”,在多元视角中去辨析是非。
评论 0
还没有添加任何评论,快去APP中抢沙发吧!