仇恨言论行动:人工智能接管人性的特洛伊木马

2018年3月9日12:39:54仇恨言论行动:人工智能接管人性的特洛伊木马已关闭评论 4252946字阅读9分49秒

迈克尔·萨拉博士

仇恨言论行动:人工智能接管人性的特洛伊木马

反诽谤联盟(ADL)在2月8日发布的一段视频中,提出了一种新的基于人工智能(AI)的算法,称之为"在线仇恨指数",其目的是识别仇恨言论。ADL认为AI算法可以被社交媒体平台使用,如Facebook、YouTube、Twitter等,以识别并快速删除仇恨言论。

在视频中,ADL技术与社会中心主任布里坦·海勒(Brittan Heller)表示,该指数的目标是:

帮助技术平台更好地了解社交媒体上日益增长的仇恨,并利用这些信息来解决问题。通过将人工智能、机器学习和社会科学结合起来,在线仇恨指数将最终揭示和识别不同平台上仇恨言论的趋势和模式。

在其2018年1月在其网站上发布的"第一阶段创新简报"中,ADL进一步解释了"机器学习"(一种基于算法的人工智能形式)如何用于识别和消除社交媒体平台上的仇恨言论:

网络仇恨指数(OHI)是ADL技术与社会中心和加州大学伯克利分校D-Lab的联合倡议,旨在通过机器学习将人类对仇恨言论的理解转化为一种可扩展的工具,可以部署在互联网内容上,发现网络仇恨言论的范围和传播。通过一个不断演变的机器学习过程,基于一个由一组人类编码人员制定的关于什么构成仇恨言论的协议,这一工具将揭示和查明不同在线平台上仇恨言论的趋势和模式,使我们能够推动必要的变革,以确保在线社区是安全和包容的空间。

ADL的在线仇恨指数被描述为"一种基于情感的分析,运行于机器学习之上。"ADL简报接着说:

在创建OHI的每一步中,所有的决策都是为了构建一个机器学习支持的模型,这个模型可以用来识别并帮助我们在线理解仇恨言论。

ADL和其他基于AI算法的推动者未能领会的是AI通过其"机器学习"的程序化能力演变为电影《终结者》和《太空堡垒卡拉狄加》中的那种可怕的相互关联的感知智能。

众所周知,像史蒂芬·霍金斯和埃隆·马斯克这样的科学家和发明家一直在大声警告人工智能所构成的长期威胁。他们和其他人认为,人工智能对人类构成了生存威胁,需要密切控制和监测。马斯克在2014年的一次演讲中说:

我认为我们应该非常小心人工智能。如果我不得不猜测我们最大的生存威胁是什么,很可能就是这样。所以我们需要非常小心人工智能……我越来越倾向于认为应该进行一些监管监管,也许是在国家和国际层面,只是为了确保我们不做一些愚蠢的事情…我们用人工智能召唤恶魔。你知道那些故事里面有一个拿着五角星的人,还有圣水,还有…他确定他能控制住那个恶魔?行不通。

斯蒂芬·霍金(Stephen Hawking)在2014年12月接受英国广播公司(BBC)采访时警告过人工智能的危险,他也附和了马斯克的观点:

全面人工智能的发展可能意味着人类的终结。它将自行起飞,并以越来越快的速度重新设计自己。…人类,因为受到缓慢的生物进化的限制,不能竞争,将会被取代。

类似地,科里·古德,一个被指控的内部人员,揭露了多个秘密太空计划的存在,声称人工智能已经是深空作战中的一个威胁。当他在2015年初首次出现的时候,古德把大量的注意力集中在了人工智能的威胁上,并在今天继续对此发出警告。

他说,这些项目与外星文明一道,采取了严格的安全预防措施,以识别并消除任何类型的人工智能签名:

从我们的角度来看,有一些ET"人工智能"小组(ALL Malevolent to Humanity,SSP)(有几个秘密空间项目)已经处理了几十年。

如果"资产"是"扫描",并且具有"生物神经人工智能签名"、"人工智能纳米技术"或"重叠人工智能相关的脑电波签名"(或任何其他接触AI的迹象),这些人立即被隔离起来,在当前时代的SSP(主要是"神经神经")技术("主要是"生物神经")的影响下,不得有任何地方接近。

现在,让我们从ADL提出的让社交媒体平台使用基于人工智能的算法来识别仇恨言论的角度来分析这一切。

首先,无论从社会、宗教或经济的角度,监测言论和管制那些宣扬对他人的恐惧、仇恨或暴力的人的想法是很有吸引力的。毕竟,我们都希望生活在一个包括网络空间在内的和平和宽容的世界中,那么,为什么不把不宽容和仇恨的个人和团体排除在我们的社交媒体平台之外呢?

当然,这里的大问题是,社交媒体有可能被人偷偷地利用,在管制仇恨言论的幌子下,将不同的政治观点排斥在外,这是一种真正的危险。我们已经看到Youtube使用了来自南方贫困法律中心等组织的10000名志愿者的队伍来实现这一点。

许多流行的YouTube频道越来越多地成为以恐吓或仇恨言论为特征的罢工和清除的目标。然而,这次对YouTube的镇压似乎是一场巧妙的伪装运动,目的是消除各种声音,质疑官方媒体对大量社会问题的叙述,而不是真正打击仇恨言论。关于这个问题我已经写过了。

然而,ADL的提议远远超出了YouTube目前所做的工作。ADL正在公开推行一个它不会实行的审查制度。T是人类做的实际监测和消除仇恨言论,但人工智能算法。鉴于霍金、马斯克和古德提出的人工智能警告,如果允许这种情况发生,会有什么结果呢?

只要一个爱因斯坦意识到,如果社交媒体平台允许人工智能算法监测和审查内容,那么关于未来人工智能威胁的警告本身就会被视为仇恨言论的一种形式。毕竟,根据2000年美国最高法院臭名昭著的公民联合裁决,如果公司能够被承认享有与个人相同的权利,那么AI感知在美国是否最终也会被承认有类似的人权?

我们很容易陷入一个反乌托邦的未来,在那里,不同形式的人工智能被用来以惊人的方式监测和控制人类行为,任何抗议或警告人工智能系统正在做什么的人都会因为仇恨言论而受到审查。

考虑到人工智能构成的生存威胁,如果我们接受霍金、马斯克和古德告诉我们的东西,更不用说审查其他新闻视角的不适当性,那么就需要不惜一切代价在社交媒体上保护言论自由。

在美国,考虑到宪法第一修正案赋予的言论自由权,以及联邦法院系统提供的法律补救措施,这不应构成太大的挑战。那些威胁要对YouTube采取法律补救措施以打击其频道的个人似乎在恢复其频道方面最为成功。YouTube为其1万名新版主的过激行为向这些用户道歉。e

然而,美国是一个浩瀚海洋中的岛屿,其他国家确实在积极惩罚发表仇恨言论的个人和团体。考虑到国家监管机构最终会惩罚那些不规范仇恨言论的社交媒体平台,这就是未来的不祥之兆。这将迫使Facebook、YouTube、Twitter和其他平台采用ADL或其他组织推荐的基于人工智能的算法,以供广泛使用。

这可能会导致中国等大国或欧盟(EU)等超国家实体可能会采用人工智能算法来监控和规范仇恨言论。中国已经在通过防火墙密切监控和清除媒体平台上的异见政治思想,而且很可能正在考虑采用人工智能算法,以便更有效地做到这一点。

虽然世界各地的国家监管机构可能会因为不同的原因而采纳ADL提出的人工智能算法来识别和消除仇恨言论,我们需要牢牢记住,这将创造一个特洛伊木马最终人工智能控制人类。

尽管仇恨言论带来了真正的问题,但鉴于全球安全可能受到破坏,各国监管机构需要确保社交媒体平台永远不受人工智能算法的监管。而人类真的受到了人工智能的威胁。

zhunbeizhuanbian
  • 本文由 发表于 2018年3月9日12:39:54
  • 除非特殊声明,本站文章均来自网络,转载请务必保留本文链接