过去几年中技术的崛起产生了一系列问题,而这些问题则通过巧妙的设计或是智能扬声器的声音(和人工智能)等待被解决。人工智能的多功能性如何改变人与人之间的互动,如何影响人类的情感变化?事实上,数字化健康是个新兴话题,我们通过它寻找新的衡量标准,开始放慢脚步以追求一种更加体贴的方式生活。

面对孤独症(loneliness)这个对英国经济造成的数十亿英镑亏损的“时代中最艰巨的公众健康挑战之一”,英国政府在2018年1月发布了首个关注孤独症的战略政策。因为孤独与抑郁症、心脏病以及隐性的生产力不足密切相关,数十家初创企业都在推广机器人作为家庭伴侣。在日本等其他国家,社交机器人越来越受欢迎,模糊了“工具还是朋友”之间的界限。这也是我们渴望通过技术寻找定义人类的答案。

图片来源: Stock

然而,与电影中人工智能机器人冷酷、威严、有意识的表现不同,它们无法感受到人类的一切互动都完全依赖于情感。正如人机交互研究员Astrid Weiss所说,“我们倾向于像对待他人一样对待媒体技术”,强调“社交是人类根深蒂固的特征”。这也是我们渴望通过技术寻找定义人类的答案。

在数字化交互时代,我们与过往生活脱节的感受愈深,日渐增多的人工智能通过编程来体现和满足人机交互的基本需求。机器人的社交能力是取决于它拟人的外观、还是其像机器学习和人工智能的能力(“尽力假扮直到成功”)?需要牢记的是,人们会不自觉地将把人的特征附加到非人的物体上,所以可能上述两点都是。

Astrid Weiss在TEDxTUWien的演讲中谈及电影《机器人与弗兰克》(Robot and Frank),剧中的两位主人公(一位患有严重痴呆症的老人和一位机器人管家)因自身的缺陷而结合在一起。因此,弗兰克不认为机器人只是一个仆人,而是他的朋友,并拒绝接受来自家庭其他成员对它进行任何形式的虐待行为。进一步说,这也许现在是老生常谈的话题,在电影《机器管家》(Bicentennial Man)中,罗宾·威廉姆斯作为机器人Andrew为人权辩护,但是人权只有在他让自己变成凡人时才得到承认。

图片来源:Imdb

PDD 工程专家Stefan Taal提到:“数十年的机器人技术研究与产品开发表明,可预测型设备与智能交互产品的根本区别,它们不太容易被人类理解,但反过来似乎对人类很了解。前者很快被变得乏味无趣,而与后者的接触发现我们可以产生共鸣。事实上,一旦栩栩如生的机器人被人理解,它就会变得毫无生气,成为了虚假理解存在的骗局。“

想象一下,如果能接触到弗兰克机器人的软件“规则手册”,我们将很快就会失去任何情感。随着人们对技术认知的提高,人们比过往任何时候都更容易察觉规则手册的存在。不少初创企业在机器人发展的浪潮中激流勇进却以失败告终离去,无论是以朋友的视角和“有用的助手”的方面都出现了弊端。在某些情况下,社交机器人很容易被特殊人群接受,比如幼儿、自闭症儿童和痴呆症患者。而当我们这些“正常的成年人”在看到机器人制造的假象时,什么时候才会(或者我们已经)上当受骗?

智能设备日渐渗透进生活各方面,我们会为此而感到惊喜吗?还是我们能预见未知,创造出既实用又值得信赖的成功产品?我们不妨将其视为一个技术悖论,与未来不断并行的诀窍并不是一如既往的对优势与进步评价,而是认识其弱点。最关键的是当机器帮助我们克服缺点的同时,我们要学会一分为二。可以这样说,以人为本的方法比以往任何时候都重要;也是我们承认自身学识短浅而不得不深入学习了解方法的动力,同时(正如我们所说的)是“创造、测试、重复、成功”的过程。

机会、精确度、探索、医学进步、风险降低、支持、颠覆性创新、生活质量改善、平等,这只是通过人工智能(AI)发展可探索到的众多机会中的一小部分。曾经是科幻电影剧本出现的东西,已成为现实。如今,小说元素消失了,太空旅行、量子计算、读心术、人类记忆上传至云端的途径,脑电波通信成为人工智能一体化的简单开发项目。

从人工智能和机器学习获取到的优势无疑是对人类有益的,但如此强大的技术一旦渗入到社会中却很容易产生巨大威胁。如何确定区分好人与坏人、道德与腐败的良好道德底线是最大的挑战。

人工智能是一个极具争议的话题,上个世纪,全球主要领导人提出并讨论了人工智能关于伦理方面的困境,可随后几乎没有采取任何行动。人工智能的发展速度总是比我们能预见的要快。从目前研究的专注于单一任务的人工狭义智能(ANI)到通用人工智能(AGI),都显现了人工智能和人类一样聪明。接下来的人工超级智能(ASI),展现了人工智能的聪明程度已不可思议地超越人类。假如你认为通过这些阶段的过渡期对所有人工智能支持者来说是最令人兴奋的挑战,其实如何遵守规则和条例则更为挑战。

从违背直觉的程度上来说,我们不一定需要通过减缓伦理的发展而是借助伦理帮助和支持人工智能的未来。牛津大学的瑞典哲学家Nick Bostrom,凭借人类提升伦理和超级智力风险方面的工作享有盛誉,而他形容“我们就像是把炸弹当游戏的孩子,在危险边缘游走”。伦理和人工智能应相辅相成而不应被视为两个完全无关的组成部分,人工智能必须在整个过程中运用伦理、社会规范和道德进行建模。

而道德又是双向的。关注人类的道德行为(从设计过程过渡到开发)和治疗,这些机器人(AI)就是我们所称为的“机器人学”(roboethics)和“机器伦理学”(Machine Ethics),管理着人工物道德行为体(AMAs)的道德行为。以上涉及的每个阶段都有多个伦理层面,涉及就业和工作演变、技术准确性和人工智能偏见带来的不平等、行为以及人机互动——这些只是第一层的一部分而已。

早期的人工智能伦理整合似乎是明智的方法,适应变化,但由令其发生呢?有人可能会说,技术和规章制度应该一同发展,但技术进步的速度可远远高于一切。我们怎样才有可能在不减缓人工智能发展的前提下保持规则的一致性呢?其中一种方法是让科技公司成立自己的道德委员会,但让合适的人参与到正确的过程中是十分困难的。

因此,我们如何保证人工智能的伦理进化?将人类价值观和原则融入先进技术实体的最佳途径是什么?保证人工智能安全地嵌入人类进化过程应该是谁的责任?答案并非显而易见,不过探索人类对于渴望人工智能的背后原因,可为今后建立起一条更安全繁荣的道路,成就一个机器人和人类从此幸福地生活在一起的故事。点击此处进一步看看人类与机器的交集。