当地时间10月21日, Twitter公布一项研究成果,称Twitter推荐算法可能存在政治偏见。研究发现,Twitter主页时间线的推荐算法无意中放大了右翼团体内容的传播,但造成这一结果的原因目前尚不清楚。
今年4月,Twitter表示将启动一系列研究,研究该平台算法的公平性。早前,Twitter的图像剪裁算法被发现会更多地裁掉黑人和女性,被指存在算法偏见,偏好白人男性。随后,Twitter的研究证实,其图像剪裁算法的确存在上述问题。
Twitter研究人员Rumman Chowdhury和Luca Belli透露,该系列研究还调查了时间线推荐算法是否会放大政治内容,调查对象为加拿大、法国、德国、日本、西班牙、英国和美国七个国家的民选官员在2020年4月1日到8月15日间发布的数百万条推文,以及上亿条用户在同一时期内转发政治新闻文章链接的推文。
调查结果显示,算法推荐的时间线内容中,来自民选官员的政治推文确实被算法放大了传播,而无论该政党是否主政。调查的7个国家中有6个国家(除德国外),政治右翼当选官员发布的推文在算法上被放大的程度超过政治左翼;右翼媒体比左翼媒体的影响力更大。
虽然这一发现并不意味着算法会放大极端意识形态,但也一定程度上反映出算法的确存在政治偏见。研究人员分析,这有可能是不同立场政党对社交媒体采取不同策略的结果,但其实“目前还不清楚为什么会发生这种情况。”
研究人员说,某些政治内容被算法放大,要分析这一现象背后的原因,难点在于这一结果不只是算法推荐的产物,也是人和平台互动的产物,算法和人之间存在复杂的相互作用。接下来,他们将采用隐私计算技术,在不泄露用户隐私的前提下,将数据分享给第三方,共同寻找算法政治偏见背后的原因。
编译/综合:南都记者马嘉璐