当前位置: X-MOL 学术Nat. Mach. Intell. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Institutionalizing ethics in AI through broader impact requirements
Nature Machine Intelligence ( IF 23.8 ) Pub Date : 2021-02-17 , DOI: 10.1038/s42256-021-00298-y
Carina E. A. Prunkl , Carolyn Ashurst , Markus Anderljung , Helena Webb , Jan Leike , Allan Dafoe

Turning principles into practice is one of the most pressing challenges of artificial intelligence (AI) governance. In this Perspective, we reflect on a governance initiative by one of the world’s largest AI conferences. In 2020, the Conference on Neural Information Processing Systems (NeurIPS) introduced a requirement for submitting authors to include a statement on the broader societal impacts of their research. Drawing insights from similar governance initiatives, including institutional review boards (IRBs) and impact requirements for funding applications, we investigate the risks, challenges and potential benefits of such an initiative. Among the challenges, we list a lack of recognized best practice and procedural transparency, researcher opportunity costs, institutional and social pressures, cognitive biases and the inherently difficult nature of the task. The potential benefits, on the other hand, include improved anticipation and identification of impacts, better communication with policy and governance experts, and a general strengthening of the norms around responsible research. To maximize the chance of success, we recommend measures to increase transparency, improve guidance, create incentives to engage earnestly with the process, and facilitate public deliberation on the requirement’s merits and future. Perhaps the most important contribution from this analysis are the insights we can gain regarding effective community-based governance and the role and responsibility of the AI research community more broadly.



中文翻译:

通过更广泛的影响要求将人工智能中的伦理制度化

将原则转化为实践是人工智能(AI)治理的最紧迫挑战之一。在此《观点》中,我们反思了世界上最大的AI会议之一的治理计划。2020年,神经信息处理系统大会(NeurIPS)提出了一项要求提交作者的声明,其中应包括有关其研究的更广泛社会影响的声明。我们从类似的治理计划中获取见识,包括机构审查委员会(IRB)和资金申请的影响要求,我们调查了该计划的风险,挑战和潜在收益。在挑战中,我们列出了缺乏公认的最佳实践和程序透明性,研究人员的机会成本,机构和社会压力,认知偏见和任务固有的困难性。另一方面,潜在的好处包括改进对影响的预期和识别,与政策和治理专家的更好交流以及对负责任研究的规范的全面加强。为了最大程度地提高成功的机会,我们建议采取措施提高透明度,改善指导,建立激励机制以切实参与该过程,并促进公众根据要求的优缺点和未来进行讨论。也许此分析最重要的贡献是我们可以从有效的基于社区的治理以及更广泛的AI研究社区的角色和责任方面获得的见解。与政策和治理专家进行更好的沟通,并全面加强有关负责任研究的规范。为了最大程度地提高成功的机会,我们建议采取措施提高透明度,改善指导,建立激励机制以切实参与该过程,并促进公众根据要求的优缺点和未来进行讨论。也许此分析最重要的贡献是我们可以从有效的基于社区的治理以及更广泛的AI研究社区的角色和责任方面获得的见解。与政策和治理专家进行更好的沟通,并全面加强有关负责任研究的规范。为了最大程度地提高成功的机会,我们建议采取措施提高透明度,改善指导,建立激励机制以切实参与该过程,并促进公众根据要求的优缺点和未来进行讨论。也许此分析最重要的贡献是我们可以从有效的基于社区的治理以及更广泛的AI研究社区的角色和责任方面获得的见解。并促进公众就要求的优缺点和未来进行讨论。也许此分析最重要的贡献是我们可以从有效的基于社区的治理以及更广泛的AI研究社区的角色和责任方面获得的见解。并促进公众就要求的优缺点和未来进行讨论。也许此分析最重要的贡献是我们可以从有效的基于社区的治理以及更广泛的AI研究社区的角色和责任方面获得的见解。

更新日期:2021-02-17
down
wechat
bug