3917.第3800章 机器人不能逾越的“红线”(1/2)
第3800章 机器人不能逾越的“红线”
说到这,吴浩看了一眼面前正在为他们进行服务的灵曦,微微一笑,然后记者讲道。
“为此,我们专门为机器人设计了一套非常完善的基本定律,或者说它的行为指南。
这套行为指南非常的复杂,必须要考虑到方方面面,比如机器人不得伤害人类,那么什么是伤害人类,什么又不是伤害人类呢。
这个要有一个清晰的限定,可这个限定看似好像很简单,却其实很难。因为它涉及的范围和情形非常广泛,非常容易出现漏洞。”
“尤其是这类与人类密切接触的服务型机器人,更是需要谨慎更加谨慎,因为一旦发生漏洞,那么就可能会对使用者造成伤害,甚至可能给社会带来危害。”
讲到这里,吴浩收起笑容,加重语气,认真讲道:“为此,我们邀请了包含众多法律,伦理道德,社会等各个方面的专家所组成的一支专家团队,制定了一套详尽的行为准则。
或者说,我们可以吧它看成是机器人领域的宪法,任何智能机器人都不能跨越。”
所以为此,我们开发出来了一套自我监控与修正系统,名为‘红线’。
本+内容‘正确*的版本在6/9*书.吧%读!【6*9*s*h*u-b-a.cx】
讲到这里,吴浩看了一眼江楠,然后抬手继续讲道:“当然,如果只是一部法律,或者说机器人行为准则,这还是不够的,我们得将它运用起来。
伤害人类的定义在不同文化、不同情境下可能有着截然不同的解读。如何在尊重多元文化的基础上,设定一个普遍适用的标准,既保护人类免受机器人伤害,又不过度限制机器人的功能与发展,是制定过程中必须面对的伦理困境。
红线,这个名字非常有意思。江楠笑着评价道。
此外,机器人是否应享有某种形式的权利与责任,也是争论的焦点之一,这直接关联到机器人的法律地位问题。
除非机器人能够逾越这道红线,否则的画,机器人的所有行为决策都将会约束在这道红线之内,不会做出任何违背这套机器人行为准则的行为。”
比如,对于自主学习型机器人,如何界定其学习内容的合法性与道德性,防止其从网络上汲取不良信息或形成错误价值观,就是一个技术上的巨大挑战。
这套系统能够实时监测机器人的行为决策,一旦发现有违背人类伦理或可能造成伤害的行为倾向,立即进行干预和纠正。它就像机器人的内心守卫,确保每一步行动都符合我们共同认可的道德标准。
至于其他机器人或系统试图帮助我越过‘红线’,我会视其为错误行为,并尝试阻止或报告给相关管理者。”
再者,社会接受度与公众认知的差异也是不可忽视的因素。公众对于机器人的期望和恐惧各不相同,如何在保障公众安全的同时,教育公众理解并接受机器人的存在与作用,减少不必要的恐慌和误解,是我们在制定这套“机器人法律”时必须考虑的社会问题。
机器人方面的法律,这听起来就很难。江楠闻言露出感兴趣的神色应道。
本章未完,点击下一页继续阅读。