Twitter推出了一项新计划,根据该计划,它正在尝试改进其机器学习(ML)算法,并确保它们不会造成意外伤害。
Twitter还拥有一个ML道德,透明度和责任制(META)团队,该团队由专门研究这些ML相关挑战的研究人员,数据科学家和工程师组成。该小组将优先研究以下方面:
图像裁剪的性别和种族偏见分析(显着性)
评估各个种族子群的家庭时间表建议
分析不同政治意识形态的内容建议
“我们还在构建可解释的ML解决方案,以便您可以更好地理解我们的算法,它们的信息以及它们如何影响您在Twitter上看到的内容。同样,算法的选择将使人们在塑造他们希望Twitter为他们服务的内容时拥有更多的输入和控制权。Twitter目前在博客中说道,我们目前处于探索这一阶段的早期阶段,并将很快分享更多信息。
Twitter推出了一项新计划,根据该计划,它正在尝试改进其机器学习(ML)算法,并确保它们不会造成意外伤害。
Twitter还拥有一个ML道德,透明度和责任制(META)团队,该团队由专门研究这些ML相关挑战的研究人员,数据科学家和工程师组成。该小组将优先研究以下方面:
图像裁剪的性别和种族偏见分析(显着性)
评估各个种族子群的家庭时间表建议
分析不同政治意识形态的内容建议
“我们还在构建可解释的ML解决方案,以便您可以更好地理解我们的算法,它们的信息以及它们如何影响您在Twitter上看到的内容。同样,算法的选择将使人们在塑造他们希望Twitter为他们服务的内容时拥有更多的输入和控制权。Twitter目前在博客中说:“我们目前正处于探索这一阶段的初期阶段,并将尽快分享。”
Twitter还要求公众帮助制定其ResponsibleML计划。有兴趣的用户还可以使用Twitter上的#AskTwitterMETA了解有关该程序的更多信息。
最新的公告是Twitter改进其算法以解决广泛报道的问题(例如偏见,骚扰和错误信息传播)的一部分。该公司因没有采取足够措施遏制这些挑战而感到震惊。
对于照片裁剪,Twitter承认其自动图像裁剪功能存在一个问题,即算法始终如一地拾取并预览肤色较浅的人,而不管原始图像的取景如何。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。