Skip to content

Latest commit

 

History

History
101 lines (51 loc) · 16.4 KB

我们如何最好地管理人工智能?.md

File metadata and controls

101 lines (51 loc) · 16.4 KB

我们如何最好地管理人工智能?

img

***这篇文章是 Brad Smith 为微软报告Governing AI: A Blueprint for the Future***撰写的前言。报告的第一部分详细介绍了政府应考虑围绕 AI 制定政策、法律和法规的五种方式。第二部分侧重于微软对道德 AI 的内部承诺,展示了该公司如何运营和构建负责任的 AI 文化。

“不要问电脑能做什么,要问它们应该做什么。”

这是我在 2019 年合着的一本书中关于人工智能和伦理的章节的标题。当时,我们写道,“这可能是我们这一代人的决定性问题之一。” 四年后,这个问题不仅在世界各国首都,而且在许多餐桌上都占据了中心舞台。

当人们使用或听说过 OpenAI 的 GPT-4 基础模型的强大功能时,他们常常感到惊讶甚至震惊。许多人对此充满热情甚至兴奋。有些人担心甚至害怕。几乎每个人都清楚的是我们四年前注意到的事情——我们是人类历史上第一代创造机器的人,这些机器可以做出以前只能由人做出的决定。

世界各国都在问共同的问题。我们如何使用这项新技术来解决我们的问题?我们如何避免或管理它可能产生的新问题?我们如何控制如此强大的技术?

这些问题不仅需要广泛和深思熟虑的对话,而且需要果断和有效的行动。本文提供了我们作为公司的一些想法和建议。

这些建议建立在我们根据多年来所做的工作所吸取的经验教训的基础上。微软 CEO 萨蒂亚·纳德拉 (Satya Nadella)在 2016 年写道,“也许我们能进行的最有成效的辩论不是善与恶的辩论:辩论应该是关于灌输给创造这个的人和机构的价值观技术。”

从那时起,我们定义、发布并实施了道德原则来指导我们的工作。我们已经建立了不断改进的工程和治理系统,以将这些原则付诸实践。今天,我们有近 350 名员工在 Microsoft 从事负责任的 AI 工作,帮助我们实施最佳实践来构建旨在造福社会的安全、可靠和透明的 AI 系统。

改善人类状况的新机遇

我们的方法由此取得的进步使我们有能力和信心看到人工智能不断扩展的方式来改善人们的生活。我们已经看到人工智能帮助挽救个人视力,在癌症新疗法方面取得进展,产生关于蛋白质的新见解,并提供预测以保护人们免受恶劣天气的影响。其他创新正在抵御网络攻击并帮助保护基本人权,即使在遭受外国入侵或内战折磨的国家也是如此。

日常活动也会受益。通过充当人们生活中的副驾驶,GPT-4 等基础模型的力量正在将搜索转变为更强大的研究工具,并提高工作人员的工作效率。而且,对于任何难以记住如何通过代数家庭作业帮助 13 岁孩子的父母来说,基于 AI 的帮助都是很有帮助的导师。

在很多方面,人工智能为人类福祉提供的潜力可能比它之前的任何发明都要多。自从1400年代发明活字印刷机以来,人类的繁荣一直在加速增长。蒸汽机、电力、汽车、飞机、计算机和互联网等发明为现代文明提供了许多基石。而且,就像印刷机本身一样,人工智能提供了一种新工具,可以真正帮助推进人类的学习和思想。

img

未来的护栏

另一个结论同样重要:仅仅关注使用 AI 改善人们生活的众多机会是不够的。这也许是从社交媒体的作用中学到的最重要的教训之一。十多年前,技术专家和政治评论员都滔滔不绝地谈论社交媒体在阿拉伯之春期间传播民主的作用。然而,在那之后的五年,我们了解到社交媒体,就像之前的许多其他技术一样,将成为一种武器和工具——在这种情况下,目标是民主本身。

今天我们老了 10 岁,也更聪明了,我们需要将这种智慧付诸实践。我们需要及早清醒地思考未来可能出现的问题。随着技术的进步,确保对 AI 的适当控制与追求其优势同样重要。作为一家公司,我们致力于并决心以安全和负责任的方式开发和部署人工智能。然而,我们也认识到,人工智能所需的护栏需要广泛的共同责任感,不应只留给科技公司。

当我们在 Microsoft 于 2018 年采用了 AI 的六项道德原则时,我们注意到其中一项原则是其他一切的基石——问责制。这是基本需求:确保机器始终受到人们的有效监督,设计和操作机器的人仍然对其他所有人负责。简而言之,我们必须始终确保人工智能始终处于人类控制之下。这必须是科技公司和政府的首要任务。

这与另一个基本概念直接相关。在民主社会中,我们的基本原则之一是任何人都不能凌驾于法律之上。没有政府凌驾于法律之上。任何公司都不能凌驾于法律之上,任何产品或技术都不应凌驾于法律之上。这导致了一个重要的结论:设计和操作人工智能系统的人不能被问责,除非他们的决定和行动受到法治的约束。

在许多方面,这是正在展开的人工智能政策和监管辩论的核心。政府如何最好地确保人工智能受法治约束?总之,新的法律、法规和政策应该采取什么形式?

人工智能公共治理的五点蓝图

本文的第一部分提供了一个五点蓝图,以通过公共政策、法律和法规解决当前和新出现的几个人工智能问题。我们承认,该蓝图的每个部分都将受益于更广泛的讨论并需要更深入的发展。但我们希望这可以对未来的工作做出建设性贡献。

*首先,实施和建立新的政府主导的人工智能安全框架。 *成功的最佳方式往往是建立在他人的成功和好的想法之上。特别是当一个人想要快速移动时。在这种情况下,美国国家标准与技术研究院 (NIST) 四个月前完成的工作是一个重要的机会。作为商务部的一部分,NIST 已经完成并启动了一个新的 AI 风险管理框架。

我们提供了四项具体建议来实施和构建该框架,包括微软为响应最近白宫与领先人工智能公司的会议而做出的承诺。我们还相信,政府和其他政府可以通过基于该框架的采购规则来加快发展势头。

img

其次,需要对控制关键基础设施的人工智能系统进行有效的安全制动 在某些方面,有思想的人越来越多地问,随着人工智能变得越来越强大,我们是否能够令人满意地控制它。人们有时会担心人工智能对电网、供水系统和城市交通流量等关键基础设施的控制。

现在正是讨论这个问题的时候。该蓝图提出了新的安全要求,实际上将为控制指定关键基础设施运行的 AI 系统创建安全制动器。这些故障安全系统将成为系统安全综合方法的一部分,该方法将有效的人为监督、弹性和稳健性放在首位。从本质上讲,它们类似于工程师长期以来在电梯、校车和高速列车等其他技术中内置的制动系统,不仅可以安全管理日常场景,还可以安全管理紧急情况。

在这种方法中,政府将定义控制关键基础设施的高风险人工智能系统类别,并保证将此类安全措施作为系统管理综合方法的一部分。新法律将要求这些系统的运营商通过设计在高风险人工智能系统中建立安全制动器。政府随后将确保运营商定期测试高风险系统,以确保系统安全措施有效。控制指定关键基础设施运行的人工智能系统将仅部署在获得许可的人工智能数据中心,这些数据中心将通过应用这些安全制动器的能力确保第二层保护,从而确保有效的人为控制。

第三,基于人工智能的技术架构制定广泛的法律和监管框架 我们认为,人工智能需要一个法律和监管架构来反映人工智能本身的技术架构。简而言之,法律需要根据不同参与者在管理 AI 技术不同方面的作用,对不同参与者施加各种监管责任。

因此,该蓝图包含有关构建和使用新的生成式 AI 模型的一些关键部分的信息。以此为背景,它建议不同的法律对在技术堆栈的三个层级行使特定职责的组织施加特定的监管责任:应用程序层、模型层和基础设施层。

这应该首先将应用层的现有法律保护应用于人工智能的使用。这是人们的安全和权利受到最大影响的层面,尤其是因为人工智能的影响在不同的技术场景中可能存在显着差异。在许多领域,我们不需要新的法律法规。相反,我们需要应用和执行现有的法律法规,帮助机构和法院发展适应新人工智能场景所需的专业知识。

届时将需要为功能强大的人工智能基础模型制定新的法律法规,最好由新的政府机构实施。这将影响两层技术堆栈。第一个将需要对这些模型本身制定新的法规和许可。第二个将涉及开发和部署这些模型的人工智能基础设施运营商的义务。下面的蓝图为每一层提供了建议的目标和方法。

在此过程中,该蓝图部分建立在银行业近几十年来制定的一项原则之上,该原则旨在防止洗钱和犯罪分子或恐怖分子利用金融服务。“了解你的客户”(或 KYC)原则要求金融机构验证客户身份、建立风险概况并监控交易以帮助检测可疑活动。采用这一原则并应用 KY3C 方法是有意义的,该方法在 AI 上下文中创建了解自己的客户内容的某些义务。

img

首先,指定的强大 AI 模型的开发人员首先“了解”他们的模型在其上开发和部署的云。此外,例如对于涉及敏感用途的场景,与客户有直接关系的公司——无论是模型开发人员、应用程序提供商还是运行模型的云运营商——应该“了解客户”正在访问它。

此外,当视频或音频文件等内容是由 AI 模型而不是人类生成时,公众应该有权通过使用标签或其他标记来“了解 AI 正在创建的内容”。这种标签义务还应保护公众免受原始内容的更改和“深度造假”的影响。这将需要制定新的法律,并且会有许多重要的问题和细节需要解决。但民主的健康和公民话语的未来将受益于深思熟虑的措施,以阻止使用新技术来欺骗或欺骗公众。

*第四,提高透明度并确保学术和非营利组织获得人工智能。 *我们认为,一个关键的公共目标是提高透明度并扩大对 AI 资源的访问。虽然透明度和安全需求之间存在一些重要的紧张关系,但仍有许多机会以负责任的方式使人工智能系统更加透明。这就是为什么 Microsoft 承诺每年发布 AI 透明度报告并采取其他措施来提高我们 AI 服务的透明度。

我们还认为,扩大学术研究和非营利社区对 AI 资源的访问至关重要。自 20 世纪 40 年代以来,基础研究,尤其是大学的基础研究,对美国的经济和战略成功至关重要。但除非学术研究人员能够获得更多的计算资源,否则科学和技术研究将面临真正的风险,包括与人工智能本身有关的研究。我们的蓝图要求采取新的步骤,包括我们将在整个 Microsoft 采取的步骤,以解决这些优先事项。

*第五,寻求新的公私合作伙伴关系,将人工智能作为一种有效工具来应对新技术带来的不可避免的社会挑战。 *近年来的一个教训是,当民主社会利用技术的力量并将公共和私营部门联合起来时,它们可以取得什么成就。这是我们需要吸取的教训,以应对人工智能对社会的影响。

我们都将从强烈的清醒乐观中受益。人工智能是一种非凡的工具。但是,就像其他技术一样,它也可以成为一种强大的武器,并且世界上会有一些人寻求以这种方式使用它。但我们应该从网络战线和过去一年半的乌克兰战争中振作起来。我们发现,当公共部门和私营部门共同努力,当志同道合的盟友走到一起,当我们开发技术并将其用作盾牌时,它比地球上任何剑都更强大。

现在需要开展重要工作,利用 AI 保护民主和基本权利,提供广泛的 AI 技能以促进包容性增长,并利用 AI 的力量推动地球的可持续发展需求。也许最重要的是,一波新的 AI 技术浪潮提供了一个大胆思考和大胆行动的机会。在每个领域,成功的关键将是制定具体的举措,并将政府、受人尊敬的公司和充满活力的非政府组织聚集在一起推进这些举措。我们在这份报告中提供了一些初步想法,我们期待在未来的岁月里做更多的事情。

管理微软内部的人工智能

最终,每个创建或使用高级人工智能系统的组织都需要开发和实施自己的治理系统。本文的第二部分描述了微软内部的 AI 治理系统——我们从哪里开始,我们今天在哪里,以及我们如何走向未来。

正如本节所认识到的,为新技术开发新的治理系统本身就是一个旅程。十年前,这个领域几乎不存在。今天,微软有近 350 名员工专门从事这方面的工作,我们将在下一个财政年度进行投资以进一步发展。

如本节所述,在过去六年中,我们在整个 Microsoft 中构建了更全面的 AI 治理结构和系统。我们并非从头开始,而是借鉴了保护网络安全、隐私和数字安全的最佳实践。这都是公司全面的企业风险管理 (ERM) 系统的一部分,该系统已成为当今世界上企业和许多其他组织管理的重要组成部分。

在人工智能方面,我们首先制定了道德原则,然后必须将这些原则转化为更具体的公司政策。我们现在使用的是企业标准的第 2 版,它体现了这些原则并为我们的工程团队定义了更精确的实践。我们通过不断快速成熟的培训、工具和测试系统实施了该标准。这得到了额外的治理流程的支持,包括监控、审计和合规措施。

与生活中的一切一样,人们从经验中学习。在 AI 治理方面,我们的一些最重要的学习来自审查特定敏感 AI 用例所需的详细工作。2019 年,我们建立了敏感使用审查计划,对我们最敏感和新颖的 AI 用例进行严格、专业的审查,从而提供量身定制的指导。从那时起,我们已经完成了大约 600 个敏感用例审查。这项活动的步伐已经加快,以配合 AI 进步的步伐,在 11 个月内进行了近 150 次此类审查。

所有这一切都建立在我们已经完成并将继续做的工作之上,以通过公司文化推进负责任的人工智能。这意味着聘请新的多元化人才来发展我们负责任的 AI 生态系统,并投资于我们在 Microsoft 已有的人才,以培养技能并使他们能够广泛思考 AI 系统对个人和社会的潜在影响。这也意味着,与过去相比,技术前沿更需要一种多学科方法,将伟大的工程师与来自文科领域的才华横溢的专业人士结合起来。

本着我们正在共同努力为人工智能打造一个负责任的未来的精神,本文提供了所有这些内容。我们都可以互相学习。无论我们今天认为某件事有多好,我们都需要不断进步。

随着技术变革的加速,负责任地管理人工智能的工作必须跟上它的步伐。通过正确的承诺和投资,我们相信它可以。