独家 | 理解和管理社交媒体算法的4个想法

数据派THU

共 5289字,需浏览 11分钟

 ·

2022-05-18 23:38


作者:Veronica Combs

翻译:赵茹萱

校对:郑强

本文约3700,建议阅读10+分钟

没有单一的解决方案能够让所有社交媒体算法都更加易于分析和理解。

试想一下,如果科技公司必须公布有关算法如何工作的数据,而软件工程师在高等教育时期必须学习社会科学课程,那将会发生什么?

麻省理工学院斯隆管理学院(MIT Sloan School of Management)教授埃克尔斯(DeanEckles)(左上)与斯坦福大学(Stanford University)平台监管主任达芙妮·凯勒(DaphneKeller)和沃顿商学院(WhartonUniversity)商业人工智能主管卡提克·霍萨纳加(KartikHosanagar)就“如何让算法更加透明”进行了对话


没有单一的解决方案能够让所有社交媒体算法都更加易于分析和理解。但是,拆解围绕着这个软件的黑盒子或许是一个不错的开始,让我们在这个黑盒子上戳几个洞吧。通过与独立分析师共享内容,也可以提高可解释性。周四,在麻省理工学院举行的社交媒体峰会上,研究人员、技术专家和法律学者讨论了如何启动这一过程。
麻省理工学院数字经济倡议组织主持了从乌克兰战争、虚假信息到算法透明度、人工智能监管的各种对话。

Facebook吹哨者弗朗西斯·豪根(Frances Haugen) 开启了这场免费的在线活动,并在第一场会议上与麻省理工学院集成开发学院(MITIDE)主任希南·阿拉尔(SinanAral)就社交媒体问责制和透明度进行了讨论。Haugen 是一名电子计算机工程师,也是Facebook前产品经理。2021年年中,她与媒体、国会和监管机构分享了Facebook的内部研究,她在领英(LinkedIn)上将她目前的职业描述为“公民诚信”,并概述了在算法影响方面监管机构和行业领导者需要做出的几项改变。

注意义务:社交媒体安全的预期

Haugen大约一年前离开了 Meta,现在正在研究“注意义务”概念,即如何定义社交媒体平台上的合理安全预期。这包括回答以下问题:“如何让13岁以下的孩子远离这些系统?”

“因为看不到幕后算法,他们不知道该问什么问题。那么,让孩子们远离这些平台,我们需要他们公布哪些数据,以了解他们是否履行了注意义务,这个可接受且合理的严格程度是多少?”

参见:为什么安全的元宇宙是必须的,以及如何构建受欢迎的虚拟世界

https://www.techrepublic.com/article/why-a-safe-metaverse-is-a-must-and-how-to-build-welcoming-virtual-worlds/


她以 Facebook上“广受关注的内容”更新为例,说明了数据的欺骗性展示。该报告仅包含来自美国的内容。Haugen表示,Meta 已将大部分安全和内容审核预算投入到这个市场。她认为,经历种族灭绝风险比较高的国家的排名前20名的清单内容,其实比Facebook上的流行榜单更为准确。“如果我们看到那份内容清单,我们会说,这是无法忍受的。”


她还强调,Facebook是许多人与互联网的唯一连接方式,除了与种族灭绝有关的社交媒体网站,没有其他选择。减少Facebook上虚假信息和仇恨言论的一种方法是,改变广告的定价方式。Haugen认为,广告的定价是基于质量,前提是“高质量的广告”比低质量的广告便宜。然而,Facebook将质量定义为获得反应的能力,即点赞、评论或分享。Facebook知道,点击的最短路径是愤怒,因此愤怒的广告最终会比其他广告便宜五到十倍。

Haugen说,一个公平的折衷方案是统一广告费率并“从系统中取消对极端主义的补贴”。
 
扩大对社交媒体平台数据的访问

Haugen建议,强制发布有关算法的可审计数据。“这将使独立研究人员能够分析这些数据,并理解信息网络。”Haugen认为,提高数据透明度是提高社交媒体平台问责制的关键,共享数据也将促进这一点。

在“算法透明度”会议中,研究人员解释了更广泛地获取这些数据的重要性。麻省理工学院斯隆管理学院教授、IDE 研究负责人 DeanEckles 主持了与斯坦福大学平台监管主任DaphneKeller 和沃顿商学院商业人工智能业务主管Kartik Hosanagar 的对话。

参见:如何识别社交媒体上的虚假信息并保护您的业务
https://www.techrepublic.com/article/how-to-identify-social-media-misinformation-and-protect-your-business/

Hosanagar讨论了 Twitter和 Meta 关于算法影响的研究,但也指出了这些研究的局限性。“所有这些平台的研究都要经过内部批准,所以我们不知道哪些没有得到内部批准的研究。”让数据可访问很重要。数据透明度也很重要,但需要在特定受众背景下理解该术语,例如软件开发人员、研究人员或最终用户。Hosanagar 说,算法透明度可能意味着从揭示源代码,到共享数据,再到解释结果的任何事情。立法者经常考虑提高最终用户的透明度,但Hosanagar 表示,这似乎并没有增加用户之间的信任。通常而言,社交媒体平台对这些算法的理解有太多的控制权,而将这些信息暴露给外部研究人员是至关重要的。“透明度主要是为了让组织内的数据科学家更好地了解他们的系统在做什么。”
 
跟踪哪些内容被删除

了解哪些内容被推广或者是被审核的一种方法是,查看从不同平台删除信息的请求。Keller认为,最好的资源是哈佛大学的“流光计划”(ProjectLumen),这是一组基于美国数字千年版权法案(DigitalMillennium Copyright Act)以及商标、专利、本地监管内容和私人信息的在线内容删除请求。Keller表示,谷歌、Twitter、维基百科、WordPress和Reddit等公司已经从这些数据中进行了大量研究。“你可以看到是谁提出的问题,为什么提出,提出的内容是什么,找出错误或模式的偏见。”然而,为了便于研究人员查看哪些内容被从这些平台上删除,YouTube或Facebook的下架请求并不是单一的数据来源。Keller认为:“如果平台之外的人有这种访问权限,他们可以做得很好,但我们必须克服障碍和相互竞争的价值观。”

Keller表示,欧盟于 2021 年 1 月批准的《数字服务法案》将改进算法的公开报告和研究人员对数据的访问权限。“这将极大地改变欧洲的透明度,并影响世界各地对信息的获取”电子前沿基金会(EFF)在一篇关于该法案的帖子中表示,欧盟立法者在该法案中提到的关于加强用户在线匿名和私人通信的权利,以及确立用户有权在合理情况下匿名使用和支付服务费用这几个要素上都做对了。但EFF仍然担心该法案的执行权力过于宽泛。Keller认为,监管机构最好制定透明规则。“监管者行动迟缓,但立法者更慢。”“他们将锁定要求错误的透明度模型。”

参见:政策制定者希望监管人工智能,但对如何监管尚缺乏共识
https://www.techrepublic.com/article/policymakers-want-to-regulate-ai-but-lack-consensus-on-how/


Hosanagar表示,由于社交媒体平台变化如此之快,监管机构总是会远远落后于科技行业。“单靠法律规定并不能解决这个问题。我们需要更多的企业自主参与,而不是仅仅遵守法律规定。”“未来几年乃至几十年,这将是一个艰难的过程。”此外,正如Eckles指出的那样,适用于 Facebook 和Instagram 的法规不会解决TikTok和印度流行的社交媒体应用ShareChat的问题,建立在去中心化架构上的系统将是另一个挑战。“如果下一个社交媒体渠道是在区块链上呢?”Hosanagar认为,“这改变了整个讨论,并将其带到另一个维度,使当前所有对话都变得无关紧要。”
 
对工程师的社会科学培训

该小组还讨论了针对消费者和工程师进行用户教育,以提高透明度方法。让更多人提出“我们应该建造它吗?”的方法,就是在工程学位中增加一两门社会科学课程。这可以帮助算法架构师以不同的方式思考技术系统,并理解算法可能会带来的社会影响。Hosanagar认为,“工程师们考虑的是,新闻推送推荐算法的准确性,或者是10条被推荐的新闻中哪一部分是与之相关的。然而,这些都不能回答这是否会造成社会分裂或者是否影响个人隐私等问题。”Keller指出,许多工程师都愿意以公开的方式描述他们的工作,但社会科学家和律师并不总是使用这些信息来源。

参见:实施人工智能还是考虑供应商态度?这些道德政策模板或许可以提供帮助
https://www.techrepublic.com/article/implementing-ai-or-worried-about-vendor-behavior-these-ethics-policy-templates-can-help/

Hosanagar认为,科技公司可以采取开源方式来实现算法透明度,就像组织分享有关如何管理数据中心或云部署的建议一样。他说,“Facebook和 Twitter一直在努力解决这些问题,并取得了很多成果,供其他公司借鉴参考”。

Keller以Google的搜索质量评估指南为例,开启了“工程师对工程师”的讨论,以期能够让其他专业人士从中找到教育意义。“我生活在社会科学家和律师的世界里,他们不读那些东西。也就是说,现有的某种程度的透明度没有被充分利用。”
 
选择自己的算法

Keller关于提高透明度的想法是,允许用户通过中间件或“魔术API”选择自己的内容审核员。出版商、内容提供商或倡导小组可以创建一个由最终用户选择管理内容的过滤器或算法。Keller认为:“如果我们希望减少大型社交媒体平台的话语权,可以在内容审核和排名算法层引入竞争。”即用户可以选择某个组的审核规则,并根据自己的喜好调整设置。“这样一来,就没有一种算法如此重要。”在这种情况下,社交媒体平台仍将托管内容并管理版权侵权和删除内容的请求。

参见:元宇宙安全:如何从Internet 2.0的错误中吸取教训,并构建安全的虚拟世界
https://www.techrepublic.com/article/metaverse-security-learn-lessons-from-internet-2-0-mistakes-to-build-safe-virtual-worlds/


Keller表示,这种方法可以解决一些法律问题,促进用户自主权,但它也带来了一系列新的隐私问题。“还有一个严重的问题是,收入如何流向提供商,”Keller认为,“肯定有后勤工作要做,但这是后勤问题,而不是我们在许多其他提案中遇到的第一修正案的根本问题。”Keller建议,用户希望内容审核人员能够将网络暴力者和种族主义者拒之门外,并减少网站向其群发垃圾邮件的次数。“一旦有政府监管部门为用户需求做把关,就可以对其进行监管,以满足政府需求。”

原文标题:4 ideas for understanding and managing thepower of algorithms on social media

原文链接:https://www.techrepublic.com/article/4-ideas-for-understanding-and-managing-the-power-of-algorithms-on-social-media/


编辑:黄继彦

校对:杨学俊





译者简介





赵茹萱,东南大学法律硕士,现就职于北京市京都律师事务所,喜欢浏览“数据圈儿”,分享热点资讯,碰撞新奇观点的法律人。与我派一起成长的三年是熠熠生辉的三年。未来,愿继续与我派一起,探索未知,保持热爱。

翻译组招募信息

工作内容:需要一颗细致的心,将选取好的外文文章翻译成流畅的中文。如果你是数据科学/统计学/计算机类的留学生,或在海外从事相关工作,或对自己外语水平有信心的朋友欢迎加入翻译小组。

你能得到:定期的翻译培训提高志愿者的翻译水平,提高对于数据科学前沿的认知,海外的朋友可以和国内技术应用发展保持联系,THU数据派产学研的背景为志愿者带来好的发展机遇。

其他福利:来自于名企的数据科学工作者,北大清华以及海外等名校学生他们都将成为你在翻译小组的伙伴。


点击文末“阅读原文”加入数据派团队~



转载须知

如需转载,请在开篇显著位置注明作者和出处(转自:数据派ID:DatapiTHU),并在文章结尾放置数据派醒目二维码。有原创标识文章,请发送【文章名称-待授权公众号名称及ID】至联系邮箱,申请白名单授权并按要求编辑。

发布后请将链接反馈至联系邮箱(见下方)。未经许可的转载以及改编者,我们将依法追究其法律责任。








点击“阅读原文”拥抱组织



浏览 46
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报