Abstract
Efforts to set standards for artificial intelligence (AI) reveal striking patterns: technical experts hailing from geopolitical rivals, such as the United States and China, readily collaborate on technical AI standards within transnational standard-setting organizations, whereas governments are much less willing to collaborate on global ethical AI standards within international organizations. Whether competition or cooperation prevails can be explained by three variables: the actors that make up the membership of the standard-setting organization, the issues on which the organization’s standard-setting efforts focus, and the “games” actors play when trying to set standards within a particular type of organization. A preliminary empirical analysis provides support for the contention that actors, issues, and games affect the prospects for cooperation on global AI standards. It matters because shared standards are vital for achieving truly global frameworks for the governance of AI. Such global frameworks, in turn, lower transaction costs and the probability that the world will witness the emergence of AI systems that threaten human rights and fundamental freedoms.
Resumen
Los esfuerzos para establecer estándares para la inteligencia artificial (IA) revelan patrones sorprendentes: los expertos técnicos provenientes de rivales geopolíticos, como Estados Unidos y China, colaboran fácilmente en los estándares técnicos de IA dentro de las organizaciones transnacionales de establecimiento de estándares, mientras que los gobiernos están mucho menos dispuestos a colaborar. sobre estándares éticos globales de IA dentro de organizaciones internacionales. Que prevalezca la competencia o la cooperación puede explicarse por tres variables: los actores que componen la membresía de la organización de establecimiento de normas; las cuestiones en las que se centran los esfuerzos de establecimiento de normas de la organización; y los “juegos” que juegan los actores cuando intentan establecer estándares dentro de un tipo particular de organización. Un análisis empírico preliminar respalda la afirmación de que los actores, los problemas y los juegos afectan las perspectivas de cooperación en los estándares globales de IA. Importa porque los estándares compartidos son vitales para lograr marcos verdaderamente globales para la gobernanza de la IA. Dichos marcos globales, a su vez, reducen los costos de transacción y la probabilidad de que el mundo sea testigo del surgimiento de sistemas de IA que amenazan los derechos humanos y las libertades fundamentales.
摘要
为人工智能(AI)制定标准一事所作的努力揭示了惊人的模式:来自美国和中国等地缘政治对手的技术专家很乐意在跨国标准制定组织内就技术AI标准进行合作,而政府则不太愿意在国际组织内就全球AI伦理标准进行协作。竞争占优势还是合作占优势,这可以用三个变量来解释:标准制定组织成员的参与者;组织的标准制定工作所关注的问题;以及当试图在特定类型的组织中设定标准时,行动者所进行的“博弈”。初步的实证分析为一个论点提供支持,即行动者、问题和博弈会影响全球AI标准合作的前景。这很重要,因为共享标准对于实现真正的全球AI治理框架是关键的。这样的全球框架反过来会降低交易成本,并减少世界见证威胁人权和基本自由的AI系统出现的可能性。