1
本文作者: 墨痕 | 2015-02-09 11:45 |
六年前,三位饱含创作热情的大学生成立了Clearpath机器人公司。现在公司的80名员工能制作各种机器人,比如美国国防部使用的一种四轮机器人车辆,比如无人机,甚至还制造了机器船。若说这家公司有什么特别,那就是他们永远不会制造杀手机器人。
目前Clearpath是第一家,也是唯一一家承诺不会制造杀手机器人的公司。公司CTO Ryan Gariepy说,这是去年的一个简单决定,但它甚至帮助公司招募了一批机器人专家。这些人都是Clearpath独特的道德伦理立场所吸引。
道德伦理问题已成为机器人公司的重中之重,杀手机器人时代即将来到,但我们毫无准备。韩国Dodam systems制造了超级神盾Ⅱ自主机器人炮塔,它使用热成像仪和激光测距仪来识别并攻击3公里内的目标;而美国也在试验自治导弹系统。
现在的军用无人机仍被人类控制,但Gariepy表示,不用花费太多时间就可让它们实现完全自动和自导。
“致命自动武器系统就要出现,但我们还没准备好用道德的方式来部署或设计这种自动武器系统。”
这是国际法的问题,也是编程的问题。在战争中,某些情况下使用武力似乎是必要的,但也可能将无辜的人们置于险境。我们如何打造在任何情况下都能做出正确决定的杀手机器人?什么又才是正确的决定?
自动驾驶汽车也有类似的问题,比如一条狗突然出现在高速公路上,汽车是否应该避开狗,但将乘客的安全置于险境?但如果出现的不是狗,而是一个孩子,或一辆校车呢?现在再设想一下战场。
“我们在车辆问题上都没法达成一致,而现在要讨论的问题已经是,建立一个自己可以决定什么时候保护生命、什么时候采取致命武力的系统。”
Peter Asaro是机器人武器控制国际委员会的创始人,过去几年一直在游说国际联盟对机器人杀手下禁令。这这样才能让诸如ClearPath这样的公司开始生产一些炫酷的产品,而不用担心自己的产品被拿去威胁平民。
军队对自治导弹很有兴趣,这解决了一个战术问题:当远程控制的无人机的传感器或网络连接被破坏时,他们无法控制无人机。
但是Gariepy认为,与其研发自主决定攻击目标的导弹或无人机,还不如花钱研究传感器和抗干扰技术。
“我们为什么不把投资用于让现有的无人机技术更有效率?如果我们面对并且克服这些困难,就可以让部队以外的普通人也受益。”
最近已经有很多关于人工智能的危险的讨论。Elon Musk担心失控的人工智能会摧毁我们的生活。上个月,Musk捐赠了1000万美元用于研究人工智能背后的道德伦理问题。另一些人,例如百度研究院员吴恩达,担心未来的人工智能革命会减少就业岗位。
也许是时候站在道德的角度,严肃思考机器人的事情,就像Gariepy说做的那样。
via wired
雷峰网原创文章,未经授权禁止转载。详情见转载须知。