2019新万博appmanbetⅩ

人工智能和多样性问题

AI多样性通用16.9.jpg

我们都熟悉由于缺乏多样性而导致公共领域人工智能技术存在缺陷的故事。但除此之外,人工智能/自动化在不知不觉中强化了多少电信技术领域的偏见和不平等?万搏体育ap《容量》杂志的娜塔莉·班纳曼将为您带来详细报道。

tiktok用户、自称“书呆子”和活动家的乔里斯(Joris Lechêne)表示,“自动化从来不是多元化友好的”。他的这番话是由他所面临的一件事引发的,当时他的护照照片被英国女王护照办公室拒绝,因为该办公室的面部识别技术无法识别他的特征。

尽管准确地遵循了所有的规则,但据Lechêne报道,这张照片还是被拒绝了,“因为人工智能软件在设计时并没有考虑到我这种表型的人,”他补充说,“它往往会对没有沿着面部下降的发际线感到非常困惑,不知怎么地把它误认为背景,它有一个习惯,认为像我这样的人是张着嘴的。”

虽然表面上看起来无关紧要,但他指出,这只是人工智能和自动化软件有时内置种族偏见的一个例子,这表明“机器人和社会一样都是种族主义者”。

Lechêne解释说:“社会严重偏向白人,这造成了一种不平等的制度,这种不平等的制度贯穿了算法。”

撇开他的经历不谈,这并不是这种人工智能偏见的唯一例子。2015年,软件工程师Jacky Alciné发现谷歌Photos中使用的图像识别算法将他的黑人朋友归类为“大猩猩”。在此之后,2018年,美国公民自由联盟发现亚马逊的面部监控技术根据28名国会议员的头像错误地将他们匹配为罪犯,这些议员都是有色人种。最近,美国国家标准与技术研究所发布了一份报告,该报告发现,在进行一种被称为“一对一”匹配的特定类型的数据库搜索时,许多面部识别算法错误识别非裔美国人和亚洲人面孔的次数是白人面孔的10到100倍。

Artificial Solutions高级对话人工智能工程师卡门·德尔·Solar解释说:“偏见对那些承受偏见的人来说本质上是看不见的,所以在开发过程之前、过程中和之后,都需要有外部的、多样化的、有代表性的声音,这样我们才能确保我们的系统将尊重、多样性和包容性向前推进。”

随着人工智能和自动化在电信领域的应用越来越多,从聊天机器人和对话式人工智能到网络管理和增强5G等新兴技术,在各个层面解决这些偏见问题非常重要。但一如既往,一切都要从数据开始。

NICE机器人自动化解决方案总经理Oded Karev表示:“在数据治理过程中采取的步骤对于确保无偏见和具有代表性的结果至关重要。”

“其中一个步骤是确保人工智能系统被专门设计为完全无视群体身份。机器人不需要考虑个人属性或受保护状态,因为个人的肤色、性别、性别、年龄或其他特征与人工智能工具的操作无关,不应该对结果产生影响。”

Colt Technology Services文化、变革和多样性副总裁路易莎·格雷戈里(Louisa Gregory)表示,“提供给人工智能系统的训练数据通常是基于一段时间内收集的历史数据。在许多情况下,这些数据包含偏见或反映了结构性不平等。例如,招聘工具的数据可能来自过去15年的简历,其中大部分可能是白人男性的简历。”

另一个考虑因素是,人工智能编程中使用的数据并不总是由数据科学家和机器学习从业者自己收集,“因此他们不知道这些数据是如何收集、生成、预处理或清理的,”IEEE成员、曼彻斯特城市大学(Manchester Metropolitan University)计算智能教授基利·克罗克特(Keeley Crockett)解释说。

她说:“关于数据集是否应该包含性别、种族、宗教或生物识别等特殊类别数据,也存在争论,这可能导致一个直接歧视的模型。”

Onfido机器学习和生物识别高级经理克莱尔·伍德科克(Claire Woodcock)指出,多样化和广泛技能的团队是答案,他说:“具有深厚技术专长以及用户体验和政策技能的跨职能团队是实现这一目标的关键。从多学科角度开发人工智能可以确保更好的用户体验,并提高人工智能的性能。”

总的来说,解决这个问题的最好方法似乎是,数据应该被视为一个不断增长、变化的活的有机体,最重要的是,不断更新以反映我们所生活的社会。

Ciklum数据分析总监亨利•布朗(Henry Brown)表示:“最重要的是不断审查数据。

“在科学上,这可以被认为是一个‘系统错误’,需要大量的努力来量化和纠正。团队永远不应该只是假设他们的数据是公正的,应该努力尽可能多地批判性地审查数据——寻找可能帮助他们的替代来源,至少,验证他们输入数据集的完整性,如果不能完全增强它们的话。”

客观决策一方面使人工智能和自动化成为公平的缩影,但另一方面,它无法识别细微差别、解释背景和表现情感,这让许多人质疑它是否最适合一些更人性化的场景。

Del Solar解释说:“自动化系统还没有掌握自然交流的能力(理解上下文,与对话者分享共同点,要求澄清,运用常识等)。”

“尽管最近在自然语言处理(NLP)方面取得了进步,但对话系统仍然没有完全自动化。”

根据克罗克特的说法,解决方案是让企业“与包括公众声音在内的所有利益相关者制定共同创造和联合生产战略。公众参与人工智能开发生命周期,从概念到部署,允许公众监督,这有助于建立消费者信任。”

部分“人为因素”还包括发展人工智能和自动化,以满足个人独特且往往是单一的需求,特别是在提供最高水平的客户服务方面。关键在于仅将其用于手动流程。

克莱夫说:“如果客户想要更好的服务,希望与一个品牌产生更多的共鸣,人工智能可以帮助他们自动化大量占用员工时间的手工、单调的任务,让他们有时间直接解决这些需求。”

布朗表示,从长远来看,监控客户是否以及为什么选择与聊天机器人等设备进行交互,对于开发最佳和最优的解决方案至关重要。

“不断学习,为客户提供简单的反馈方法。如果他们要与聊天机器人打交道,那么企业必须确保客户可以迅速传递给人类助理,”他解释道。

“我们还应该记录客户给出的他们为什么不想使用人工智能解决方案的原因。”

在其报告中,快进到过去——自动化正在降低组织的多样性吗?,Deloitte found that while intelligent automation can transform work practices, it also creates the risk of reinforcing structural inequality – as it is typically lower-paid jobs comprising routine tasks that are most at risk of being automated.

“纵观历史,工业化和科技影响了工人,人工智能也不例外。从长远来看,当我们适应并驯服这些技术时,社会很可能会变得更好;但在短期内,某些弱势群体的情况可能会更糟,因为他们发现自己更难适应,”Pegasystems决策和人工智能解决方案总监彼得•范德•普特顿(Peter van der Putten)表示。

但人工智能也为一些弱势群体提供了广泛的机会——例如,范德普滕认为,通过他所谓的人工智能增强扩展,残疾人可能会更容易获得新工作。

他补充道:“具有讽刺意味的是,如果我们想要对抗一项技术的邪恶副作用,我们就需要把它变成我们自己的,并让它大众化。”

克罗克特采取了一种稍微积极一些的方法,他认为,由于这种发展而失去工作的人应该有机会在不同的领域进行再培训、重新学习并找到工作,因为正如预期的那样,它会对个人的心理健康和福祉造成损害。

“他们还应该获得免费的教育课程,以帮助提高他们的数字素养,以及指导计划,以帮助他们建立信心。这需要花钱,但我们需要为最弱势的群体提供机会,确保他们在社会上和其他人一样受到平等对待。”

根据爱立信发布的《利用人工智能技术提高5G网络投资回报报告》,53%的服务提供商预计到2020年底将人工智能的某些方面完全集成到他们的网络中,另有19%的服务提供商预计在未来三到五年内实现同样的目标,这与确保我们的网络具有正确的意图和优先级,以最好地服务用户一样重要。

“技术没有好坏之分——正如历史学家梅尔文·克兰茨伯格(Melvin Kranzberg)所说,它也不是中立的——对于人工智能来说也不例外。你不能说人工智能算法总体上是好是坏:用于检测癌症的相同算法可能被用于某些不良目的,”范德普滕解释道。

在他看来,这一切都是为了构建人工智能系统的目的,“它是为了未经他们同意就收集和平抗议者的面孔吗?”向客户滥发只服务于公司而不是客户的优惠?”

他表示,新的人工智能法规即将出台,将评估有助于建立全球信任的所有类型因素,并“使其能够负责任地使用,不仅有利于企业,也有利于客户和公民”。

虽然我们谁都不能,也不应该回避进步,但重要的是,所有的改变都要考虑到每个人的需求和关切,这一过程只能通过一个开放的合作、反馈和沟通循环来实现。