2018我们可能要忍受的人工智能阴暗面

来源: www.wtianx.com 时间:2018-01-03 23:41

我们在一片对18岁照片的花样赞美中,迎来了又一个新年。

按说新年应该是开心的时候,但是刚刚跨年结束,抬头一看居然要上班了…不由得悲从心来…所以今天我们打算说点不那么开心的事。

最近几天,各种对2018年的科技预测层出不穷,其中对AI的畅想占了大头,内容差不多是一片喜庆祥和。

但事有两来,当我们开始从AI中收获价值的时候,技术升级后带来的潜在风险也在升温。这就像汽车当然好过牛车,但汽车也会带来各种各样的交通事故。我们当然不能因此禁止汽车上路,但是也不能对交通问题视而不见。

今天我们来预测几个,很可能在2018年进入我们眼帘的“人工智能负能量”。

毕竟做好准备,是解决问题的前提条件。

一、人工智能伦理问题开始出现个案

2017年1月,在加利福尼亚州阿西洛马举行的Beneficial Al会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。

随后,各种关于人工智能伦理道德的讨论、会议,以及相关协会和科技组织开始出现在公众视野里。

《23条原则》的主要内容,就是呼吁人工智能不能损害人类的利益和安全,同时人工智能必须可以被人类控制,同时人类要尽量尊重人工智能和机器人的安全。

听起来颇有点科幻的味道,但是在各行各业开始部署AI,尤其开始利用AI进行自动化决策的时候,人工智能的伦理与道德问题或许真的会浮出水面。

2018我们可能要忍受的人工智能阴暗面

所谓的算法歧视,对于普通消费者来说,最有可能在内容推荐和电商推荐两个地方感觉到。比如说消费者刚看过宽大的衣服,电商就推荐减肥药,很可能让消费者联想到算法在歧视自己胖;再比如打开今日头条这类软件的时候,大家可能都出现过这种情况:偶尔点了一个推荐来的猎奇或者伪色情内容,然后再一刷新。好嘛,蜂拥而至的类似内容啊,你本来想看的兴趣内容和专业内容瞬时间化为乌有。甚至你怎么点我不关心不喜欢,平台还是给你推荐。这就是因为算法的归类方式给你贴上了标签。这种歧视感也蛮严重的,好像背后有个人奸笑着对你说:“承认吧,你就是这么低俗…”

2018我们可能要忍受的人工智能阴暗面

上一篇:专访芝麻官电商总监游春——传统食品不容于互联网?他说No! 下一篇:格局已定 萧瑟的电商市场进入深度整合时代