校务处的头像
脑机接口,噩梦还是祝福?—对人工智能的伦理与神学反思(二)—黄雅各老师
校务处 发表于 2020年10月8日 星期四 15:51
 

导言:在今年9月4日,第12届网路宣教论坛的第二场,是对人工智能进行专场探讨。其中拥有机器人工学和基督教护教学双博士的黄雅格老师,就此进行了伦理和神学的反思。我们一连4个星期刊载其中的内容,今天是第二篇。 

人工智能一定是噩梦吗?

判断是否是“噩梦”的关键,是不是只要脑壳不开洞,脑波与机器连接就比较能够接受呢?相信许多朋友和信徒会有这样的疑问,我们再来看下一个视频,这是帮助帕金森病人控制稳定动作的研究,称为Deep brain stimulation (DBS),用深入脑部的手术,植入电极,并释放出电波来控制帕金森症手脚的颤抖。这项研究从1997年开始,于2002开始人体试验,2016年获FDA(编者按:美国食品药品监督管理局U.S. Food and Drug Administration)批准。原本颤抖无法控制的手,可以改善到能书写签名。

类似的研究,也能应用到癫痫症的病人身上,但是脑部的部位和使用的信号不同。现在医学可以做到在癫痫发作之前测试到异常的脑波信号,进而用电极放出适当信号反制异常信号,甚至能预防和保护病人因癫痫发作引起的意外。

斯坦福大学从2004年开始研发这项技术,于2014年获得FDA的批准。这项技术被称为“脑波步伐调节器”(Responsive neurostimulation (RNS) system (NeuroPace®))。其实,类似的心率调节器(Pace Maker)和心脏电击除颤器(defibrillator)等在医学领域用在病人身上已多年,救治了许多人的性命。

关键在于设计者

由此可见,“人工”(artificial)制造并不见得一定不好,或者一定是噩梦或灾害。若是以“人工精制”与“量产制造”比较,当然是“人工”制作好。因而,这人工的“人”是关键。AI(人工智能)是人训练出来的,什么样的信息与数据输入计算机,训练出来的AI就会被它的设计者左右。若这设计者“人”不好,在辨别和应用信号的处理上具有邪恶的意念,那设计出来的“人工智能”当然就不好,是可以成为噩梦与祸害的!

机器人的道德律

机器人的道德律,最早是由Issac Asimov提出来的。他是一位非常著名的科幻小说家,本身也是一位科学家、生化博士、大学教授。他在1942年的小说“I, Robot”(《我,机器人》)中提出了3条机器人道德律: 

1.机器人绝不可伤害人,或让人被伤害; 

2.机器人必须服从人类给的命令,除非违反第一条; 

3.机器人必须保护自己,但这保护的行动不可违反第一和第二律。

但是目前来看,现代社会所发明的各式各样的军用机器人,目的确是要伤害人的!因此,2010年,英国的工程师与人工智能学会经过开会商讨,提出下列几条设计机器人的伦理原则(当然其前提是设计者必须认同这些道德观):

1.机器人的设计,若不是因国家安全绝不可使其唯一目的成为杀人或伤人;

2.人类,而不是机器人,必须为机器人的行动负责。机器人是人类设计的工具,达成人类制定的目的;

3.机器人的设计必须保证和维系它的安全;

4.机器人是人造的器具,不应该设计出利用使用者心理的弱点而操控人、让人产生心理依赖的机器人,机器人与真人必须能够分辨;

5.谁是一个特定机器人有法律责任的设计者,必须能够追查得到。

由此看来,不是机器人本身应具有伦理基础,而是设计机器人的设计者必须要有伦理道德。

(待续)

往期链接:

<脑机接口,噩梦还是祝福?—对人工智能的伦理与神学反思(一)>