媒体监测和推荐平台

人工智能

当前位置:首页 > 人工智能 > 详细内容

代表员工利益的人工智能有多重要

个人已经习惯了侵入性数据收集和处理做法的存在,这些做法对企业有利,但最终对个人几乎没有价值。但是,如果员工可以把人工智能引擎转过来,用它来保护自己不受不公平雇主的伤害,那会怎么样呢?这是东北大学一个新的人工智能项目的关键点。

东北大学(Northeastern)助理教授、公民人工智能实验室(Civic AI Lab)主任赛夫 萨维奇(Saiph Savage)正在领导开发一款“智能助推”(intelligent nudging)应用程序,帮助员工(特别是众包中的员工角色)避免不公平的评论。

萨维奇说:“只要有一个差评就可能导致员工被解雇。但问题是,很多时候可能是根据员工无法控制的事情来评估他们。”

例如,优步司机可能会因为意外的交通拥堵而迟到接乘客。或者,数据标签员可能提交了不完整的工作,因为在他们的审查过程中,电脑崩溃了。在这两种情况下,员工都没有做错任何事,但通常情况下,他/她还是会受到指责。

通过对自然语言处理系统的研究,萨维奇知道有一个潜在的解决方案。“我们所做的就是训练机器学习模型,让它能够检测出一个人、一个客户或一个经理何时在写一份关于员工的评估报告,这些评估报告考虑的是员工工作范围之外的事情。可以敦促雇主、老板、经理或客户重新考虑他们的评估,这样他们就能更公平地对待员工。”

该系统基于一个深度学习模型,该模型根据特定处分平台的书面服务条款进行培训。这些服务术语定义了员工职责。通过排除过程和一些NLP推理,当书面审查的内容超出服务条款中定义的责任时,系统能够识别实例。当出现这种情况时,系统会弹出警告并向评价作者提出建议。

“这只是一个小小的推动。”萨维奇最近获得了美国国家科学基金会(NSF)的30万美元拨款,用于研究以人类为中心的人工智能,以赋予个人(特别是临时雇员)权力。以帮助管理者开始反思他们如何撰写关于员工评价。

萨维奇的团队将这个系统作为浏览器插件,允许任何人使用,她说:“如果你是一个担心对员工不公平的客户,你可以下载我们的工具,并开始使用它们,在GitHub上有它们。我们的想法是,通过这种方式,开发者也可以使用工具,开始构建自己的东西。”

萨维奇表示,该模型还可以用来检测评论中存在的偏见。萨维奇被提名为《麻省理工学院技术评论》(MIT Technology review)的35岁及以下的创新者。

萨维奇一直在与数据标签公司Toloka、西弗吉尼亚大学和墨西哥国立自治大学(UNAM)合作,帮助培训农村员工成为数据标签员。智能助推应用程序的想法部分源于这项工作。

“我们一直在努力为员工提供数据透明度。目前很多众包平台存在信息不对称,客户可能有很多关于员工的信息,所以我认为,重新思考如何让每个人都能接触到不同利益相关者的信息,这样他们就能做出正确的决策,这很重要。”

这种信息不对称的一个例子是,网约车公司在赚大钱的诱惑下激励司机继续工作。在现实中,司机们很少有机会拿到那样的报酬,只是他们不知道而已。

在设计工作流程时为员工提供更公平的互动,我们还可以做得更多。如果信息是有利可图的,公司很难放弃信息优势。但是,如果有足够多的人了解到这一情况,有朝一日情况可能会改变。