人性化的人工智能发展需要监管制度的加入

2020-09-28 13:53   来源: 互联网

人工智能目前容易受到偏见和其他缺陷的影响。


人工智能(Ai) 正在或即将颠覆每一个行业。到 2030 年,这项技术将带来生产率的大幅提高、成本的大幅降低和研发的巨大进步,人工智能将使全球 GDP 增长逾 15.7 万亿美元,人们很容易认为这项技术只能是一件不受约束的好事。这将是一个危险的错误。


与任何技术一样,人工智能可能对个人、社会和经济产生有害影响:一些共同关切的问题包括,犯罪分子可能会利用人工智能提供的工具来危害个人和组织的网络安全,或者人工智能的预测能力会引发一系列隐私问题。然而,对于人工智能而言,最危险的可能性之一将被用来削弱强大组织内部的责任结构,同时延续在受保护特征(如年龄、性别或种族)方面存在的不公正现象。


市场往往不重视个人道德和伦理原则的目的。虽然在人工智能标准的制定方面有一些重大举措,比如 IEEE 伦理一致性设计标准或人工智能 ISO 标准,但人们不能依靠自律来使这项技术发挥作用。相反,人们必须通过建立有目的的监管框架来保护自己的道德,这将强制该行业的最佳做法并减少恶意行为。


人工智能的社会挑战


如前所述,使监管体系具有说服力的两个挑战是偏见和问责制。


我们都知道,如果人工智能的设计、开发或部署不恰当,就会造成不良的社会偏见。这是因为,这些数据在整个历史上都是社会固有的偏见。这意味着,如果该模型使用带有偏见的数据进行培训,这种数据代表或低估了某些特征、结果或群体,该模型最终可能会做出基于这种偏见的社会不公正决策。例如,许多负责整个美国警务工作的人工智能都接受了培训 -- 这是关于犯罪和种族之间联系的现成虚假数据,导致这些模型偏袒少数族裔的决策。


在问责制方面,在整个人工智能系统的设计、发展和运作上,个人和机构的责任都有一定程度的模糊性。考虑到被自动驾驶仪撞倒的人的情况,谁应该负责?传统上,汽车制造商应对其汽车设计造成的损害负责,但人工智能开辟了一个可以推卸责任的复杂责任链:有些可以说是制造商,即那些注册开发驾驶人工智能的软件开发商、认可的人工智能合规官员或批准错误自动驾驶人工智能规格的行业组织。


一个可以要求一定程度责任的利益相关者网络意味着,那些为人工智能的过错寻求赔偿或正义的人可能会面临官僚噩梦。考虑到人工智能模型可以做出影响个人未来的重大决策,个人无力追究组织责任,可能会使个人无法抵制机构无能或恶意。


为什么监管是解决这些挑战的办法?


幸运的是,专家们在开发解决这两个社会问题的工具和程序方面取得了进展。

人性化的人工智能需要监管制度

为了减少偏见,从事人工智能的人知道如何更严格地选择培训数据。在网络安全领域,人们已经认识到,虽然不可能引进防止系统被黑的通用技术,但可以采用进程和接触点,以确保最佳做法,以减轻网络安全漏洞。


同样,在算法偏差方面,可以采用流程和最佳做法,以确保减轻不受欢迎的偏见。通过利用领域专家的知识和可解释的人工智能技术,各组织可以减轻风险,并在关键过程中引入可解释性。这可以确保尽量减少对培训数据的系统性偏见,从而防止模型做出歧视性决定。在恢复问责制方面,还可以在整个人工智能生命周期内引入相关的联络点,从而使人们参与决策过程,以确保在整个过程中建立问责制结构。


然而,人们不能指望私营部门确保这些做法得到广泛实施。相反,这些与偏见、恢复问责制和提高可解释性有关的最佳做法必须受到外界的启发。这就是为什么人工智能需要一个监管环境。为此,决策者和开发商需要团结起来,开展跨学科合作,以平衡技术、社会和法律需求。


合规的另一个效果是,它将在现场获得更大的信心和稳定性。如果实施得当,良好的监管体系将迫使人们采用人工智能部署的最佳做法,为实施这些做法创造新的就业机会,吸引更多行业投资,并刺激更多创新,使人工智能人性化和转型。




责任编辑:萤莹香草钟
分享到:
0
【慎重声明】凡本站未注明来源为"东方新闻网"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!

未经许可任何人不得复制和镜像,如有发现追究法律责任 粤ICP备2020138440号