当前位置: X-MOL 学术arXiv.cs.AI › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Report prepared by the Montreal AI Ethics Institute (MAIEI) on Publication Norms for Responsible AI
arXiv - CS - Artificial Intelligence Pub Date : 2020-09-15 , DOI: arxiv-2009.07262
Abhishek Gupta (1 and 2), Camylle Lanteigne (1 and 3), Victoria Heath (1) ((1) Montreal AI Ethics Institute, (2) Microsoft, (3) Algora Lab)

The history of science and technology shows that seemingly innocuous developments in scientific theories and research have enabled real-world applications with significant negative consequences for humanity. In order to ensure that the science and technology of AI is developed in a humane manner, we must develop research publication norms that are informed by our growing understanding of AI's potential threats and use cases. Unfortunately, it's difficult to create a set of publication norms for responsible AI because the field of AI is currently fragmented in terms of how this technology is researched, developed, funded, etc. To examine this challenge and find solutions, the Montreal AI Ethics Institute (MAIEI) co-hosted two public consultations with the Partnership on AI in May 2020. These meetups examined potential publication norms for responsible AI, with the goal of creating a clear set of recommendations and ways forward for publishers. In its submission, MAIEI provides six initial recommendations, these include: 1) create tools to navigate publication decisions, 2) offer a page number extension, 3) develop a network of peers, 4) require broad impact statements, 5) require the publication of expected results, and 6) revamp the peer-review process. After considering potential concerns regarding these recommendations, including constraining innovation and creating a "black market" for AI research, MAIEI outlines three ways forward for publishers, these include: 1) state clearly and consistently the need for established norms, 2) coordinate and build trust as a community, and 3) change the approach.

中文翻译:

蒙特利尔人工智能伦理研究所 (MAIEI) 编写的关于负责任人工智能出版规范的报告

科学和技术的历史表明,科学理论和研究中看似无害的发展使现实世界的应用成为可能,对人类产生了重大的负面影响。为了确保人工智能的科学和技术以人道的方式发展,我们必须根据我们对人工智能潜在威胁和用例的日益了解来制定研究出版规范。不幸的是,很难为负责任的人工智能创建一套出版规范,因为人工智能领域目前在这项技术的研究、开发、资助等方面是分散的。为了研究这一挑战并找到解决方案,蒙特利尔人工智能伦理研究所(MAIEI) 于 2020 年 5 月与 AI 伙伴关系共同举办了两次公众咨询。这些聚会检查了负责任的人工智能的潜在出版规范,目的是为出版商制定一套明确的建议和前进的道路。在提交的文件中,MAEII 提供了六项初步建议,其中包括:1) 创建工具来导航出版决策,2) 提供页码扩展,3) 建立同行网络,4) 需要广泛的影响陈述,5) 要求出版预期结果,以及 6) 改进同行评审流程。在考虑了对这些建议的潜在担忧,包括限制创新和为人工智能研究创造“黑市”之后,MAEII 为出版商概述了三种前进方向,其中包括:1) 明确且一致地说明对既定规范的需求,2) 协调和构建信任作为一个社区,以及 3) 改变方法。目标是为出版商制定一套明确的建议和前进的道路。在提交的文件中,MAEII 提供了六项初步建议,其中包括:1) 创建工具来导航出版决策,2) 提供页码扩展,3) 建立同行网络,4) 需要广泛的影响陈述,5) 要求出版预期结果,以及 6) 改进同行评审流程。在考虑了对这些建议的潜在担忧后,包括限制创新和为 AI 研究创建“黑市”,MAEII 为出版商概述了三种前进方向,其中包括:1) 明确且一致地说明对既定规范的需求,2) 协调和构建信任作为一个社区,以及 3) 改变方法。目标是为出版商制定一套明确的建议和前进的道路。在提交的文件中,MAEII 提供了六项初步建议,其中包括:1) 创建工具来导航出版决策,2) 提供页码扩展,3) 建立同行网络,4) 需要广泛的影响陈述,5) 要求出版预期结果,以及 6) 改进同行评审流程。在考虑了对这些建议的潜在担忧,包括限制创新和为人工智能研究创造“黑市”之后,MAEII 为出版商概述了三种前进方向,其中包括:1) 明确且一致地说明对既定规范的需求,2) 协调和构建信任作为一个社区,以及 3) 改变方法。1) 创建工具来导航出版决策,2) 提供页码扩展,3) 建立同行网络,4) 需要广泛的影响陈述,5) 要求公布预期结果,以及 6) 改进同行评审过程. 在考虑了对这些建议的潜在担忧,包括限制创新和为人工智能研究创造“黑市”之后,MAEII 为出版商概述了三种前进方向,其中包括:1) 明确且一致地说明对既定规范的需求,2) 协调和构建信任作为一个社区,以及 3) 改变方法。1) 创建工具来导航出版决策,2) 提供页码扩展,3) 建立同行网络,4) 需要广泛的影响陈述,5) 要求公布预期结果,以及 6) 改进同行评审过程. 在考虑了对这些建议的潜在担忧,包括限制创新和为人工智能研究创造“黑市”之后,MAEII 为出版商概述了三种前进方向,其中包括:1) 明确且一致地说明对既定规范的需求,2) 协调和构建信任作为一个社区,以及 3) 改变方法。
更新日期:2020-10-06
down
wechat
bug