减少诅咒:如何滥用AI设备可能会使您的工作成本降低

您是否曾经因为无法理解您的话而在Siri,Alexa或Google上受到诅咒?你不是一个人。我们可能会犯一个或两个侮辱自己的罪行。

但是我们都应该小心。

尽管在侮辱的另一端没有一个真正的人,但那些人发誓的话也不会消失在虚无中。我们无意识的倒钩通过网络传输到远程服务器。

事实证明,我们可能会想到的是,我们如何对待数字私人助理会教给他们最糟糕的人性,并可能使某些公司视我们中的某些人为无能为力。

他们正在向我们学习

Siri于2011年问世,其次是Google Now,一年之后。到2014年,微软有了Cortana。同年,亚马逊在一个塑料管中贴上了一种叫做Alexa的AI,人们可以将其放在桌面上。谷歌和苹果此后也做过同样的事情。科技巨头正在迅速寻求将人工智能转变为可用于消费者的产品的方法。

这些数字个人助理似乎已经成熟。他们甚至可能有让我们高兴的时刻。但是他们是青春期。他们是知识渊博的幼儿,并且他们正在积极地从我们提供给他们的信息中学习。

Siri背后的团队正在研究Viv(现由三星拥有),该数字助理是与Weather Underground和Uber等第三方服务集成的数字助手。为演讲者提供更详细的回复。舞台上的演示展示了Viv对我们问别人的问题的回答,而不是我们为机器理解的语言。这是从人们使用语言的方式中学习的结果。

数字个人助理并不是我们大多数人想象的人工智能图像。与1960年代模拟自然语言(您可以尝试在网上与自然语言聊天)的计算机程序ELIZA不同,这些AI并没有为自己做太多的“思考"。这项工作全部通过Internet进行。

该过程需要几个步骤。

第一个组件是语音识别。该设备可以上传直接录音,也可以将您的单词翻译成文本,然后发送给远程服务器(Apple,Google,Amazon或其他任何服务器)。那就是魔术发生的地方。或者,软件会在数据库中搜索适当的响应。

简而言之:有人问你一个问题,问Siri,然后Siri问苹果服务器。服务器会给Siri一个答案,她会回复您,您会很高兴或就该如何处理令人失望的事情了。

这些数据库不仅仅包含答案。一些存储语音记录,可帮助计算机浏览我们不同方言的许多细微差别。这些信息不仅有助于机器人了解我们。 Facebook已使用两人之间的数千种自然语言协商来教Messenger聊天机器人如何进行协商。

我们树立了一个好榜样吗?

这些并不是唯一的AI可以从中学习的

去年,Microsoft在Twitter,Kik和GroupMe上发布了一个聊天机器人,目的是模拟一个美国十几岁的女孩。几个小时之内,“泰"同意了希特勒的意见,并拥护一切形式的进攻性言论。微软在一天结束之前就将Tay脱机。

虽然Tay失败了,但这并没有减慢聊天机器人的普及。您可以在Facebook和Snapchat等社交网络中找到它们,还可以在HipChat和Slack等消息传递客户端中找到它们。一些人正在聊天。其他人则将您连接到服务。这些机器人中的某些更安全,因为它们不要尝试模仿自然对话,因为现在,机器模仿我们的说话方式并不一定好。

我们不这样做并没有为机器人学习树立最佳典范。密苏里州立大学学院教授Sheryl Brahnam进行了一项研究,得出结论,研究的互动中有10%到50%表明人在辱骂他人,或者对计算机助手有害(数字个人助手只是其中一种)。这是一个令人不安的数字。一些父母对在孩子面前说一个坏话感到内gui。这与一半的互动是负面的相去甚远。

我之前提到的那些Facebook Messenger聊天机器人?他们不仅学会了通过学习自然语言进行谈判的方式,还学会了如何撒谎。

您的未来雇主可能会关注

我们将来可能会达到一个目标我们与机器人进行通讯可能会使我们的工作成本降低。根据《哈佛商业评论》的报道,当我们从将受虐待的机器人看成是一部坏掉的手机,更像是一只被踢的小猫时,就可能发生这种转变。 不尊重公司机器人可能会导致您被解雇。

这并不意味着员工或雇主将开始将机器人视为可爱的生物。但是,他们可能有足够的知觉,使他们误以为是专业的,适得其反。如果您是经理,则滥用AI可能会导致您在HR之前因糟糕的领导才能被召唤。

这听起来是否太假想?考虑我们已经知道发生的事情。我们输入或对这些助手说的所有内容都是通过互联网发送的,之后我们真的不知道会发生什么。大部分信息已记录。即使该信息并不总是与您的帐户相关联,它仍会存储。

Google在技术上对此保持透明,但这并不明显。如果数据收集是在记录某人之前同意某人同意的定义。

该收集的数据现在看来似乎是无害的,但是没有什么可以阻止技术巨头最终将详细的投资组合汇总到我们每个人身上未来的雇主,银行和其他实体可以在与我们合作之前进行检查,就像信用报告一样。

法律执法也太过关注

在涉及阿肯色州一名男子的案件中检察官杀死了他的朋友(一名前警察),试图使用来自亚马逊回声的录音作为证据。亚马逊拒绝了该请求,但这只是部分安慰。令人不安的是,亚马逊首先存储了数据。自那以后,犯罪嫌疑人已授予访问这些数据的权限。

我提到公司可以在与我们互动之前检查我们的数据记录。在执法方面,他们已经着眼于此信息。如果国家安全局可以依靠私营部门为其收集信息,NSA是否真的需要本身收集数据?我们应该信任每个人拥有这么多数据的人吗?

数据中包含的不仅是我们搜索的内容或发出的命令,还包括我们如何做到了。 我们不只是提供对我们的兴趣和行动的洞察力-我们还让其他人了解我们的行为方式。您与Alexa之间发生的事情并不仅限于您与Alexa之间。

我们要说的事情

尽管Tay不得不超时,但微软发现使用另一种机器人取得了压倒性的成功。叫小冰在中国和日本,该机器人已与4000万人互动。小冰没有自残的部分原因是文化差异。在中国,某些类型的演讲禁止在线进行。

现在,僵尸程序已经开始自行进行警务工作。社交网络开始使用机器人来减少仇恨言论。我们可能没有直接与这些机器人聊天,但他们仍在研究我们的演讲,以了解什么是滥用行为。

无论您如何处理该问题,我们所说的话和我们如何说的都是重要的。机器人以及制造它们的公司正在倾听。有一天,我们的雇主可能会加入他们。如果将来要用计算机代替我们,我们是否不希望它们变得更好?

当数字个人助理出现故障时,您将如何应对?你把他们当作有感情的人对待吗?您是否在乎有人在说您的话?您认为负责任的前进方向是什么?人类将密切注意您在下面的评论。

图片来源:deagreez1 / Depositphotos

标签: Alexa 人工智能 Google助手 微软Cortana Siri