主页 > 热点滚动 >【果言科技】5 个人工智能 (AI) 的偏见 >


【果言科技】5 个人工智能 (AI) 的偏见

发表于2020-05-22

当你联想到机器的时候,你会用甚幺的形容词去形容呢? 冷冰冰? 公平公正不偏不倚? 但是人工智能(AI)真的是不偏不倚吗? 其实很多的AI 在现实中都存有一些偏见需耍我们去明白。令往后设计一些AI智能系统的时候能够避免这些潜在的问题。

【果言科技】5 个人工智能 (AI) 的偏见

    数据上的偏见

当一个机器开始学习的时候,他们得出的答案其实都是根据AI所接收到的数据去决定。但问题是当AI拥有大量的数据的时候便会做成一些偏见。然而这种偏见已经出现在一些深度学习之中。就好像最近Nikon 的面部识别软件中,软件将亚洲人的面孔与HP的皮肤问题出现了混淆,这正正说明了AI 在数据上出现了一些偏见。除了面部识别的问题外,AI 用于分析犯罪模式等的问题的时候也可能出现一些偏见而造成一些负面的影响。这都是一个相当大的问题需要我们去面对。

    互动上的偏见

虽然有很多的系统的学习进程是通过例子进行学习;但是有些的系统则是利用交互的方式来学习 (人类与系统之间的互动)。而在这种交互方式中令系统与系统之间可能会交换了一些偏见。

就好像微软的Tay ,他的学习主要是与用户的互动之间学习。但Tay 受到一群用户的影响,学会了种族主义并发出一些攻击性的言论。很可惜地,Tay 推出24小时之后微软便以种族主义的问题为由关闭了Tay。我们可以从是次Tay 的事件中看出,机器学习的时候其实都会学习到一些坏的偏见。

不过,换个角度来说,如果我们找来一些人类去监察这些智能系统又可不可行呢? 不可行。因为我们从Tay 事件中学懂人与系统之间的互动是会带来偏见的。

    个人化上的偏见

有时候,一些个人化的系统亦可能会产生出一些偏见。就好像Facebook,他们是利用用家的数据去分析并获取用家的想法以个人化用家的内容。但这样做就会导致大量的讯息向着用户倾斜。由于 Facebook 已经学习了用家的想法,他们能够自动为用家刬除一些用家没有兴趣的内容,这又会做成另一种的偏见。

    相似度上的偏见

有时候有些偏见可能是系统自己製造出来的。例如Google 利用顾用户的搜寻去提供一些Google News 。其实 Google 现时探用的这种的手法正正就好像 Facebook 的个人化设计般。当然,这种的方法牵涉到的是缺乏编辑控制的问题。但在现时资讯科技的世界中,相似度在一些针对决断的时候佔下了一大席位,可谓十分重要。所以相似度上的偏见现时已经慢慢被接受下来,特别在企业之中。

    上的偏见

有时候有些系统是特别针对一些商业用途去製造,但是往往可能出现了一些偏见是完全被忽视的。

例如一个系统是为用户提供一些工作的,系统会从用户按下工作描述中收钱,这亦是这个系统的目标。但是,人们使用这个系统的时候往往点击一些适合自己的工作。例如一些妇女选择工作的时候会选择一些标籤为「护理」而非「医疗技术人员」的工作。因此,这样会令不小的机器会出现了一些目标上的偏见。

最后,其实这些智能系统在製造出来的时候是客观的,但是经过很多不同的原因之后会令到这些智能系统产生偏见。但是,当我们去理解偏见本身的问题和根源的时候,其实我们都会有方法去避免他们。我们相信,我们并不能够去製造一个完全客观的系统,但是至少我们能够减少偏见。

资料来源: TechCrunch

上一篇:
下一篇: