当前位置: X-MOL 学术AI Commun. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Norms for beneficial A.I.: A computational analysis of the societal value alignment problem
AI Communications ( IF 1.4 ) Pub Date : 2020-12-07 , DOI: 10.3233/aic-201502
Pedro M. Fernandes 1 , Francisco C. Santos 1 , Manuel Lopes 1
Affiliation  

The rise of artificial intelligence (A.I.) based systems is already offering substantial benefits to the society as a whole. However, these systems may also enclose potential conflicts and unintended consequences. Notably, people will tend to adopt an A.I. system if it confers them an advantage, atwhich point non-adopters might push for a strong regulation if that advantage for adopters is at a cost for them. Here we propose an agent-based game-theoretical model for these conflicts, where agents may decide to resort to A.I. to use and acquire additional information on the payoffs of a stochastic game, striving to bring insights from simulation to what has been, hitherto, a mostly philosophical discussion. We frame our results under the current discussion on ethical A.I. and the conflict between individual and societal gains: the societal value alignment problem. We test the arising equilibria in the adoption of A.I. technology under different norms followed by artificial agents, their ensuing benefits, and the emergent levels of wealth inequality. We show that without any regulation, purely selfish A.I. systems will have the strongest advantage, even when a utilitarian A.I. provides significant benefits for the individual and the society. Nevertheless, we show that it is possible to develop A.I. systems following human conscious policies that, when introduced in society, lead to an equilibrium where the gains for the adopters are not at a cost for non-adopters, thus increasing the overall wealth of the population and lowering inequality. However, as shown, a self-organised adoption of such policies would require external regulation.

中文翻译:

有益AI的规范:社会价值一致性问题的计算分析

基于人工智能(AI)的系统的兴起已经为整个社会带来了巨大的利益。但是,这些系统也可能包含潜在的冲突和意想不到的后果。值得注意的是,如果采用AI系统会给人们带来优势,那么人们将倾向于采用AI系统,届时,如果采用者的优势要付出代价,则非采用者可能会要求制定强有力的法规。在这里,我们针对这些冲突提出了一种基于代理的博弈论模型,代理可以决定求助于AI来使用和获取有关随机游戏收益的其他信息,力求从模拟中获得迄今为止的见解,主要是哲学上的讨论。我们将在当前关于道德AI和个人与社会利益之间的冲突的讨论中得出结论:社会价值取向问题。我们测试了在不同规范下采用AI技术时出现的均衡,其次是人工代理,它们带来的收益以及财富不平等的出现水平。我们表明,即使没有功利的AI为个人和社会带来巨大利益,如果没有任何监管,纯自私的AI系统将具有最强的优势。然而,我们表明,有可能遵循人类意识的政策来开发AI系统,将其引入社会后会达到一种平衡,即采用者的收益不会以非采用者的代价为代价,从而增加了采用者的整体财富人口和减少不平等现象。但是,如图所示,自组织采取此类政策将需要外部监管。我们测试了在不同规范下采用AI技术时出现的均衡,其次是人工代理,其带来的收益以及财富不平等的出现水平。我们表明,即使没有功利的AI为个人和社会带来巨大利益,如果没有任何监管,纯自私的AI系统将具有最强的优势。然而,我们表明,有可能遵循人类意识的政策来开发AI系统,将其引入社会后会达到一种平衡,即采用者的收益不会以非采用者的代价为代价,从而增加了采用者的整体财富人口和减少不平等现象。但是,如图所示,自组织采取此类政策将需要外部监管。我们测试了在不同规范下采用AI技术时出现的均衡,其次是人工代理,其带来的收益以及财富不平等的出现水平。我们表明,即使没有功利的AI为个人和社会带来巨大利益,如果没有任何监管,纯自私的AI系统将具有最强的优势。然而,我们表明,有可能遵循人类意识的政策来开发AI系统,将其引入社会后会达到一种平衡,即采用者的收益不会以非采用者的代价为代价,从而增加了采用者的整体财富人口和减少不平等现象。但是,如图所示,自组织采取此类政策将需要外部监管。在不同规范下的技术,其次是人为因素,其带来的利益以及出现的财富不平等程度。我们表明,即使没有功利的AI为个人和社会带来巨大利益,如果没有任何监管,纯自私的AI系统将具有最强的优势。然而,我们表明,有可能遵循人类意识的政策来开发AI系统,将其引入社会后会达到一种平衡,即采用者的收益不会以非采用者的代价为代价,从而增加了采用者的整体财富人口和减少不平等现象。但是,如图所示,自组织采取此类政策将需要外部监管。在不同规范下的技术,其次是人为因素,其带来的利益以及出现的财富不平等程度。我们表明,即使没有功利的AI为个人和社会带来巨大利益,如果没有任何监管,纯自私的AI系统将具有最强的优势。然而,我们表明,有可能遵循人类意识的政策来开发AI系统,将其引入社会后会达到一种平衡,即采用者的收益不会以非采用者的代价为代价,从而增加了采用者的整体财富人口和减少不平等现象。但是,如图所示,自组织采取此类政策将需要外部监管。我们表明,即使没有功利的AI为个人和社会带来巨大利益,如果没有任何监管,纯自私的AI系统将具有最强的优势。然而,我们表明,有可能遵循人类意识的政策来开发AI系统,将其引入社会后会达到一种平衡,即采用者的收益不会以非采用者的代价为代价,从而增加了采用者的整体财富人口和减少不平等现象。但是,如图所示,自组织采取此类政策将需要外部监管。我们表明,即使没有功利的AI为个人和社会带来巨大利益,如果没有任何法规,纯自私的AI系统将具有最强的优势。然而,我们表明,有可能遵循人类意识的政策来开发AI系统,将其引入社会后会达到一种平衡,即采用者的收益不会以非采用者的代价为代价,从而增加了采用者的整体财富人口和减少不平等现象。但是,如图所示,自组织采取此类政策将需要外部监管。遵循人类意识政策的系统,这些系统被引入社会后会导致一种均衡,在这种均衡中,采用者的收益不会以非采用者的代价为代价,从而增加了人口的整体财富并降低了不平等现象。但是,如图所示,自组织采取此类政策将需要外部监管。遵循人类意识政策的系统,这些系统被引入社会后会导致一种均衡,在这种均衡中,采用者的收益不会以非采用者的代价为代价,从而增加了人口的整体财富并降低了不平等现象。但是,如图所示,自组织采取此类政策将需要外部监管。
更新日期:2020-12-08
down
wechat
bug