您的位置 首页 行业资讯

AI作恶?我们必须思考人工智能中的道德了

全文共3064字,预计学习时长8分钟图源:unsplash很多人对AI充满热情,因为它可以实现自动化、可以在游戏中打败人类、还能提高人们的整体生活水平。这当然是不争的事实,但AI仍存在缺陷甚至是危险,有可能是人为带来的,也可能不是。即便在今天,仍有无数起AI扰民或危害生命的事件,这是怎样发生的?以后AI会越来越普及,它的哪些潜在特性会给社会造成毁灭?AI算法

全文3064字,预计学习时间8分钟

AI作恶?我们必须思考人工智能中的道德了图.

来源:unsplash

很多人对AI充满热情,因为它可以实现自动化,在游戏中战胜人类,提高人们的整体生活水平。

这是不争的事实,但是AI还是有缺陷甚至危险的,可能是也可能不是人带来的。即使在今天,AI扰民或危及生命的事件依然数不胜数。怎么会这样?未来AI会越来越普及。AI有哪些潜在的特征会破坏社会?

AI作恶?我们必须思考人工智能中的道德了图.

AI算法中的道德缺陷

AI有很多缺陷,会滋生道德问题。很多都是由于训练数据的偏差,为了建立信息反馈循环模式。举几个例子,看看这些小错误和误解在现实中是如何影响人的。

面部识别的训练数据有偏差

想象有一天,你从学校走回家,警察出现出示逮捕证,把你铐起来,带到看守所。你不知道自己犯了什么错,而你的家人和邻居在一旁看着。到了派出所后,他们搜了全身,取了指纹,拍了照片,把你关在肮脏的牢房里一晚上。你只是坐在那里等着,想知道你为什么被抓住。

AI作恶?我们必须思考人工智能中的道德了图.

罗伯特·威廉和他的家人|来源:DetroitFree Press

这是发生在罗伯特身上的真实事情。他是个黑人,无缘无故在美国法明顿山被捕。警察盘问他时,拿出一张黑人在店里偷东西的照片。威廉否认他去过那里,也否认他不在照片里。

另一张照片是小偷的特写。一点也不像威廉。他说:“不,不是我。你以为所有黑人长得都一样?”

为什么警察抓错了?这就是算法的问题。警察通过人工智能搜寻嫌疑人,但显然是错的。AI怎么会出错?不应该很准吗?

是的,AI一般都很准,但前提是训练没有问题。威廉被认为嫌疑人的主要原因是训练数据的偏差。面部识别系统对白人是公平的,但对少数群体就不那么准确了。因为使用的数据集主要是白脸和其他少数群体的脸,所以黑人的识别度较低。

AI作恶?我们必须思考人工智能中的道德了图.

面部识别准确率的差异|来源:第五课ofFastAI

虽然“深肤色男性”的识别度很高,但对深色皮肤和浅色皮肤的识别度差距还是很大,尤其是“深肤色女性”。这些成果属于尖端科技公司,不一定会被警察利用。

YouTube的反馈系统

大家肯定都看过这个网站,你会在首页看到一个有趣的视频或者热门视频。一个小时过去了,你还在这个页面上,但不知不觉看到了更多的视频。这是推荐系统的功能,它会提供能让你在页面上停留更久的视频,从而获得更多的广告利润。

你可能会想:“如果你在那个平台上多呆一会儿呢?不会伤害任何人。”不会,这个推荐算法会导致反馈中出现有害内容。

YouTube的AI反馈回路出现了一个可怕的问题:“网站的推荐算法,让恋童癖者更容易在特定视频的评论区找到或分享儿童的色情作品。这个发现有很多令人恐惧的地方。不仅仅是视频商业化,它的推荐系统也在不断地向成千上万的用户推广儿童视频。”

feedback loop system还创建了一个单一模式,观众可能总是会看到他们拒绝的内容。那么有些人就永远听不到对立的声音,就会导致两极分化。

而且,这个制度会助长阴谋论。就像两极分化一样,会让对阴谋论略有兴趣或者持怀疑态度的人信服。推荐给你的视频越来越多,都传达着同样的信息。

AI作恶?我们必须思考人工智能中的道德了图.

来源:unsplash

AI缩短医疗时间

2016年,阿肯色州的医疗系统采用了新的算法。算法是为了更好的给医护人员分配资源和时间,它会结合几个因素来决定每个病人需要多少帮助。但是医疗效率的提高意味着很多人的医疗时间会减少,而这些人往往最需要帮助。

AI作恶?我们必须思考人工智能中的道德了图.

来源:合并

该软件将不为糖尿病患者或脑瘫患者服务。这个问题源于一个漏洞和一些错误码。接下来就是道德问题了。是否应该用AI来确定患者的健康状况?为什么这个状态在不知道或者没有检测到错误的情况下使用这个算法?

有一个很明显的例子,可以从Tammy Dobb看出算法影响人的生活。塔米·多布(Tammy Dobb)在患有脑瘫多年后,于2008年搬到阿肯色州。她需要很多帮助,不能自己移动到轮椅上,双手僵硬。为此,州医疗机构给她分配了最长的护理时间,每周56小时。

AI作恶?我们必须思考人工智能中的道德了图.

来源:TheVerge

阿肯色医疗系统应用AI算法后这一切都变了。Dobb的医疗时间从56小时减少到32小时!只有原来的56%!这个删减显然对她的生活产生了很大的影响。

AI作恶?我们必须思考人工智能中的道德了图.

AI使用不当

有一些例子是关于AI如何被故意用作不道德的操作,比非人类的代码错误还要糟糕!

IBM与屠杀

没错,IBM在二战中帮助纳粹大屠杀。你可能很好奇:“二战有AI做后盾吗?”可以说是差不多。IBM当时开发了一个用于分类的制表功能。拆卡分类不仅仅是简单的算法,更是需要大量维护的复杂工具,而不是通常的人工智能。说了这么多,我还是觉得讨论技术使用不当很重要,不管是不是AI。

AI作恶?我们必须思考人工智能中的道德了图.

图中希特勒坐在IBM CEO旁边。|来源:瓜地安。

先回顾一下这个机器是如何工作的:你会得到一张打卡,需要插入;机器会读取信息,保存,最后输出数字;这些数字代表了人们将去哪个集中营,囚犯的类型以及他们将如何死亡。

一位名叫霍华德·卡特的经济战争首席调查员写道:“希特勒的经济战争也是由我们的一家企业进行的。所以IBM和纳粹是一类人,全世界都被国际怪物压制。”

变脸

变脸也是一种人工智能。它生成的图像、视频甚至音频都极其真实,使用的是对抗性生成网络,是一种深度学习模式。仅仅为了娱乐而使用变脸并没有坏处,但是它有真正的危险,也带来了道德问题。

一种通过变脸制造伤害的方式是在政治领域。如果一条推文会引起越来越多的紧张,那么视频或者语音呢?一段侮辱其他政治大亨的录音会像病毒一样在网上传播,两极分化会加深。如果人们相信,情况会变得更加紧张。

另一种扰乱社会的方式是在网络上泛滥大量虚假内容。无论什么时候上网,怎么知道看到的是真的?如果互联网和媒体上有很多变脸的事情,没有人会知道什么是真的,什么是真的。甚至文字也能产生谬误。你怎么知道是我写的还是机器人在误导你?

AI作恶?我们必须思考人工智能中的道德了图.

来源:MITTechnology Review

最不会造成伤害的是淫秽作品。2019年9月的一份报告显示,96%的网络换脸申请与淫秽作品有关。《福布斯》上的一篇文章说,“有变脸倾向的淫秽作品,往往未经他人许可,就与明星或个人联系人合成视频。”

AI作恶?我们必须思考人工智能中的道德了图.

新兴道德问题

虽然听起来很吓人,但背后可能更糟糕。

AI和技术日新月异,我们最终会面临一个奥威尔式的局面。政府会有更多的授权,他们会知道我们什么时候,什么地方,通过AI在做什么。摄像头里安装的面部识别会监控你的每一个动作,麦克风会识别谁在说话,什么在说话,预测算法会判断你的下一个动作。

AI作恶?我们必须思考人工智能中的道德了图.

来源:Contexture

这又带来一个问题。政府越容易追查到你,就越容易除掉自己讨厌的人。下一任希特勒的工作效率会更高,不需要找讨厌的人,因为他们已经知道自己在哪里,随时都可以找到。政府也可以查出是谁反对他们,然后更容易惩罚反对他们的人。

令人信服的虚假文字和视频会淹没网络,传递最不可靠、最没有价值的信息。必须警惕AI。

AI作恶?我们必须思考人工智能中的道德了图.

留言如关注

大家分享AI学习发展的干货

如转载请在后台留言并遵守转载规范

更多AI智能建筑安防科技-AI作恶?我们必须思考人工智能中的道德了,欢迎订阅本站,安徽医用自动门、门禁卡多少钱一个、感应门原理、平移门电机、道尔门禁玩转智能建筑安防科技社群最新新闻。

本文来自网络,不代表红雨智能安防资讯网立场,转载请注明出处:http://www.zdm365.cn/zx/4730.html
返回顶部