虽然社交媒体公司会因为他们选择禁止谁而受到批评,但科技伦理专家表示,这些公司控制的更重要的功能发生在他们推荐的内容背后。

圣母大学技术伦理中心(ND TEC)主任克尔斯滕·马丁(Kirsten Martin)认为,基于单一因素——参与——优化推荐,本质上是一个充满价值的决策。

人性可能会被最两极分化的内容所吸引——我们无法把目光从火车残骸上移开。但仍有限制。她说,像Facebook和Twitter这样的社交媒体平台一直在努力在言论自由和节制之间找到适当的平衡。

马丁说:“总有一天人们会离开这个平台。“完全未经审核的内容,你可以说任何你想说的糟糕内容,这是人们不蜂拥而去的原因。因为当我们看到它时,它看起来像火车残骸,我们不想一直被它淹没。我认为这是一种自然的阻力。”

Professor Kirsten Martin teaching a class on Tech Ethics. Professor Kirsten Martin working out concepts on the chalkboard for her class In the foreground a computer screen taking notes while Kirsten Martin interacts with student in the background.
圣母大学科技伦理中心主任克尔斯滕·马丁(Kirsten Martin)在1月份教授一门课程。ND TEC开设了一门15学分的技术伦理学本科辅修课程,对所有圣母大学本科生开放,无论专业如何。

埃隆•马斯克(Elon Musk)最近在Twitter上的变动,已将这场辩论从一场学术练习变成了一个实时测试案例。马丁说,马斯克可能认为是否禁止唐纳德·特朗普是核心问题。一位高管可以决定一项禁令,但选择推荐什么需要算法和人工智能等技术——以及设计和运行它的人。

马丁说:“Twitter现在的不同之处在于,它正在赶走所有真正做过这些事情的人。”“内容审核算法的好坏取决于给它贴上标签的人。如果你改变做出这些决定的人,或者你把他们赶走,那么你的内容审核算法就会很快过时。”


马丁是隐私、技术和商业道德方面的专家,也是门多萨商学院(Mendoza College of business)的William P. and Hazel B. White技术伦理中心教授,他仔细分析了内容推广。她说,在2016年总统大选之前,社交媒体公司对网上错误信息的批评持谨慎态度,因此在2020年大选前夕,对推荐哪些内容和团体设置了新的护栏。

Facebook和Twitter有意识地主动进行内容审核,但在投票结束后就停止了。马丁说,Facebook“以为选举已经结束”,知道它的算法在推荐仇恨团体,但没有停止,因为“这类材料吸引了很多人的参与”。用户数超过10亿,影响深远。

马丁在她编辑的案例九博体育研究教科书(“数据和分析的伦理”)中写了一篇关于这个主题的文章,并于2022年出版。在《推荐一场叛乱:Facebook和推荐算法》一书中,她认为Facebook有意识地决定优先考虑用户粘性,因为这是他们选择的衡量成功的指标。

她写道:“虽然关闭一个账户可能会成为头条新闻,但对内容的微妙推广和推荐推动了用户参与度。”“而且,正如Facebook和其他平台发现的那样,用户参与度并不总是与最好的内容相对应。”Facebook自己的自我分析发现,其技术导致了错误信息和激进化。2021年4月,脸书的一份内部报告发现,“脸书未能阻止一场有影响力的运动利用其平台使选举非法化,鼓励暴力,并帮助煽动国会大厦骚乱。”

一个核心问题是,这个问题是平台的错还是平台用户的错。马丁说,技术哲学内部的争论类似于枪支冲突,一些人指责枪支,另一些人指责使用枪支的人。她说:“技术要么是一张中立的白纸,要么是光谱的另一端,技术决定一切,几乎是自己发展的。”“不管怎样,引导这种决定性技术的公司,或者把它归咎于用户的公司,实际上设计它的公司没有任何责任。

“这就是我所说的公司躲在这背后的意思,几乎是在说,‘决策的过程和决策本身都是如此黑盒化或非常中立,以至于我不对其设计或结果负责。’”马丁否认了这两种说法。

一个能说明她信念的例子是Facebook对超级用户的推广,超级用户是指那些不断发布内容的人。该公司扩大了超级用户,因为这推动了用户粘性,即使这些用户倾向于包含更多的仇恨言论。想想俄罗斯的巨魔农场吧。计算机工程师发现了这一趋势,并建议通过调整算法来解决这一问题。泄露的文件显示,该公司的政策部门否决了工程师们的意见,因为他们担心这会影响他们的参与度。此外,他们担心被指责有政治偏见,因为极右翼团体往往是超级用户。

马丁教科书中的另一个例子是,一名亚马逊司机在凤凰城附近送了四年包裹后被解雇。他收到了一封自动发送的电子邮件,因为跟踪他表现的算法“认为他没有做好自己的工作”。

该公司意识到,将解雇决定委托给机器可能会导致错误和破坏性的头条新闻,“但它认为,只要司机可以轻易被替换,相信算法比花钱雇人调查错误解雇要便宜得多。”相反,马丁认为,为了保持人类控制技术设计、开发和部署的能力,承认“技术的价值偏见”是必要的。

Computer screen with the definition of the word 'ethics' displayed.

关于在线内容审核的争论可以追溯到《通信规范法》第230条。1995年,一家在线平台因一名用户在其公告板上的帖子被起诉诽谤。这起诉讼之所以成功,部分原因是该平台试图删除有害内容,这意味着适度会导致全部责任,这阻碍了任何尝试。

作为回应,国会通过了第230条,以保护平台的商业模式并鼓励自我节制。马丁说:“我们的想法是,即使你进入那里并试图缓和它,我们也不会像对待报纸一样对待你。”“你不会对你网站上的内容负责。”

社交媒体公司在某些类型的节制方面一直很成功,也很积极。当人们一致反对某种类型的内容时,比如儿童色情或受版权保护的材料,他们会很快将其删除。当关于什么是有害的广泛争论时,问题就开始了。

在棘手的情况下,这些公司有时会利用第230条采取不干涉的方式,声称只有更多的内容才能战胜谎言。马丁说,他们认为没有办法做得更好:“如果你监管我们,我们就会破产。”

她将这与通用汽车公司在20世纪70年代声称他们无法在汽车上安装安全带以使其更安全,或者钢铁公司声称他们无法避免污染进行比较。

马丁说:“这是一个行业发展迅速的正常演变,没有太多的监管或太多的思考。”“人们会反驳说,‘嘿,我们想要不同的东西。“他们会回心转意的。通用汽车增加了安全带。最终,我们会有更好的社交媒体公司。”

马丁之所以乐观,可能是因为她是科技迷。

她说:“批评社交媒体的人并不想让它消失。”“他们希望它能实现它的所有功能。他们喜欢积极的一面。”

社交媒体可以将志趣相投的人或感到孤独的人联系起来。这在大流行期间尤为重要。生活在极权主义政权下的人们可以快速方便地沟通,避免政府对旧技术的控制。

2010年代初,在阿拉伯之春(Arab Spring)期间,抗议者在网上组织起来,推翻了北非和中东的独裁领导人,Facebook被视为一股强大的自由力量。

回到家里,这种权力也有缺点,这取决于你的观点。马丁说:“如果我能和和我一样的人交流,那就意味着如果我想策划一场叛乱,我就能找到想要策划一场叛乱的人。”

马丁说:“很多时候,那些大声发表仇恨言论的人都有追随者,他们认为这是在号召武装起来。”“这不仅仅是一个人,就像亚历克斯·琼斯对桑迪胡克小学的受害者说,‘你不存在,那从来没有发生过。“有成千上万的人会在线上和线下瞄准这些人。我认为这是对恶霸不对称的误解。”

最近的一些现象,从Facebook的COVID-19虚假信息到Instagram对青少年身体形象的影响,可能已经让一些人对社交媒体产生了反感。Martin认为2014年的Gamergate是改变许多人看法的动力。一场组织松散的网络骚扰活动以女权主义和电子游戏文化的多样性为目标,产生了许多随之而来的最恶劣的行为。

马丁表示,当仇恨言论过于泛滥时,社交媒体用户必须要求适度。广告商可能是另一股强大的力量。她说:“各大品牌不希望新款电动凯迪拉克就在白人至上主义者的岗前。”

马斯克现在可能更关心他想要推广的言论,而不是目标群体,但这种选择可能会为乳齿象这样的竞争对手打开大门。就马丁而言,她将继续发现问题,并相信技术可以纠正错误,提供社会效益。

她说:“我一直认为科技伦理有两个方面。“一个是对技术的关键评估审查。但另一方面是帮助人们弄清楚如何设计和开发更好的技术。同时具备这两项技能的不一定是同一个人。

“你需要有人指出哪里出了问题,然后你需要其他人说,‘哦,我可以解决这个问题,我的做法会有所不同。’”

加入圣母院故事邮件列表

订阅我们每月的时事通讯,永远不要错过最新的功能。