我对互联网巨魔进行了一个好主意。
如果你打字的所有可能的伤害词语组合你可以想到然后静音,所以你没有看到它们?
这基本上是Twitter今天完成了新的静音设置。这是一种蹩脚的尝试来处理不断增长的问题。问题当然是互联网巨魔都是虐待狂和创造性的。他们可以提出一百万种不同的方式伤害你 - 发明了新的俚语和Hashtags,用照片刺激了你,直到你了解了图像的上下文和历史,以及将额外的角色添加到种族级别。
我一直是社交媒体对社交媒体的恶毒袭击的受害者,我注意到的一件事是这些攻击几乎总是略有不同。你可以静音“淹死”一词,我想,当有人告诉你淹死自己时,从来没有看到通知(这发生在我身上),但巨魔将在下次使用不同的词语“窒息”。在安全圈中,这被称为无尽的追求,持续的,永无止境的战斗来阻止病毒,恶意软件和其他危险。当你认为你有“柔和”一个犯罪黑客时,他或她出现了一种全新的破坏方法。作为一个副作用,这就是让安全公司在业务中保留的。
这种新的“静音”方法的另一个问题是它只适用于通知,而不是实际的推文。如果您浏览自己的饲料,您仍将看到任何在线骚扰,因此在此工作中没有多少算法。Twitter基本上迫使您思考对您有害的话,在App或Online中输入所有字段(这本身可能是某些困难的过程),并希望过滤器在收到短信或通知在手机上弹出。
什么会工作得多?我越来越多地成为使用真实姓名的粉丝,至少在你看看一个简介时能够找到它。这也可能是一个困难的编程技巧,因为巨魔很容易淘汰如何创建假名。但是,那么,也许不是。Twitter可以以与其他服务的方式相同的方式进行名称验证,要求您输入社会安全号码或通过证明您的地址以某种方式正确(可能是通过图像验证)。通常发生的是,当你添加这样的步骤时,你会使事情变得稍微困难,往往会阻止愚蠢(或最谨慎)的巨魔。
然而,真正需要发生的是,Twitter需要结束所有人。服务本身应该在生活中使用人工智能来发现在线骚扰。而且,这应该实际上工作。机器学习会有所帮助。如果我发布了某种东西的链接,并且用户响应并说“去跳下桥梁”或“找到枪和自杀”机器学习算法应该踢入。Twitter应该阻止这种骚扰形式;它永远不应该被静音。如果你想知道,Twitter今天不这样做。或者,如果他们说他们这样做,它就不起作用。
机器学习很难。当有3.3亿用户以及数百万措施滥用其他人时,它甚至更加困难。它不仅仅是标记某些术语或静音。通过分析单词和背景,是有害和辱骂的理解。
Twitter,踩到了盘子,做了实际工作的事情。版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。