内部问答:信任和安全主管谈论人工智能和内容审核

内部问答:信任和安全主管谈论人工智能和内容审核

1
Play game
游戏介绍:
内部问答:信任和安全主管谈论人工智能和内容审核
内部问答:信任和安全主管谈论人工智能和内容审核

亚历克斯·波普肯 (Alex Popken) 在 2023 年离职前曾长期担任 Twitter 的信任和安全主管,专注于内容审核。她于 2013 年入职时是该公司第一位致力于审核 Twitter 广告业务的员工。

现在,她是 WebPurify 负责信任和安全的副总裁,WebPurify 是一家内容审核服务提供商,与企业合作,帮助确保人们在其网站上发布的内容遵守规则。

社交媒体平台并不是唯一需要这样做的平台。治安。任何面向消费者的公司——从零售商到约会应用程序再到新闻网站——都需要有人来清除不需要的内容,无论是仇恨言论、骚扰还是任何非法内容。公司越来越多地在工作中使用人工智能,但波普肯指出,人类在此过程中仍然至关重要。

波普肯最近接受了美联社的采访。为了清晰和长度,对话已被编辑。

问题:在您任职 Twitter 的十年里,您如何看待内容审核的变化?

回答:当我加入 Twitter 时,内容审核发生了怎样的变化?正处于起步阶段。我认为,甚至信任和安全也是人们刚刚开始理解和应对的概念。随着平台看到它们以新的方式武器化,对内容审核的需求不断升级。我还记得我在 Twitter 任职期间的一些重要里程碑。例如,俄罗斯对 2016 年美国总统选举的干预,我们第一次意识到,以一种有意义的方式意识到,如果没有内容审核,我们可能会有坏人破坏民主。投资这一领域的必要性变得越来越重要。

问:很多公司,较大的社交媒体公司都依靠人工智能来进行内容审核。您认为人工智能已经到了可以依赖的地步了吗?

答:有效的内容审核是人和机器的结合。多年来一直适度使用的人工智能解决了规模问题。因此,您拥有根据不同策略进行训练并可以检测内容的机器学习模型。但最终,假设您有一个机器学习模型正在检测“纳粹”一词。有很多帖子可能会批评纳粹或提供有关纳粹与白人至上之类的教育材料。因此它无法解决细微差别和上下文。这确实是人类层发挥作用的地方。

我确实认为我们开始看到真正重要的进步,这些进步将使人类的工作变得更加轻松。我认为生成式人工智能就是一个很好的例子,它与传统的不同。人工智能模型,它比它的前身更能理解上下文和细微差别。但即便如此,我们的人类调节者现在围绕调节生成人工智能输出拥有全新的用例。因此,我认为,在可预见的未来,对人类节制的需求仍然存在。

问:您能谈谈与您合作的非社交媒体公司以及他们使用什么样的内容审核吗?

答:我的意思是,一切都来自类似零售产品定制,你知道,想象一下你允许人们定制 T 恤,对吧?显然,您希望避免人们滥用这一点并将有害的、可憎的东西放在 T 恤上的用例。

实际上,任何包含用户生成内容的内容,一直到在线约会 - 都有,您正在寻找诸如钓鱼和诈骗之类的内容,并确保人们的真实身份,并防止人们上传不适当的照片。它确实跨越多个行业。

问:您正在主持的问题怎么样,这种情况有变化吗?

答:内容审核是一个不断发展的领域。它受到世界上正在发生的事情的影响。它受到新技术和不断发展的技术的影响。它受到不良行为者的影响,他们试图以新的和创新的方式进入这些平台。因此,作为内容审核团队,您要努力保持领先并预测新的风险。

我认为这个角色有一点灾难性的想法,你会想到这里可能发生的最坏情况是什么。当然,它们也在不断进化。我认为错误信息是一个很好的例子,错误信息有很多方面,而且很难调节。就像沸腾的海洋一样。我的意思是,你无法核实某人所说的每件事,对吗?因此,平台通常需要关注错误信息,以免造成最现实的伤害。而且这也一直在发展。

问:就生成式人工智能而言,有一些世界末日般的想法,认为它将毁掉互联网,你知道,它只是上面的假人工智能东西。你觉得这可能会发生吗?

答:我对 AI-gener 感到担忧

游戏截图:
分类:

体育游戏

标签:

评估:

    留言

    最新游戏

    游戏新闻 更多

    查看更多

    体育游戏 更多

    查看更多