生成式人工智能的快速增长带来了许多创新机会,但同时也带来了新的挑战。这些挑战包括一些在生成式人工智能出现之前就存在的问题,如偏见和可解释性,以及一些特有问题(如幻觉和毒性)。AWS致力于以人为本的方法来负责任地开发生成式人工智能,强调教育、科学和客户,以确保在整个AI生命周期中有效集成负责任的AI。
过去一年中,我们在生成式AI应用和模型中引入了新的能力,例如在 中内置的安全扫描、在 中训练以检测和阻止有害内容、以及在 中的数据隐私保护。我们的投资集中在安全、透明和负责任的生成式AI上,包括与全球社区和政策制定者合作,支持和。同时,我们还通过一些专用工具,如 和 ,与客户紧密合作,将负责任的AI落地实施。
随着生成式AI扩展到新产业、组织和用例,这种增长必须伴随着对负责任的基础模型开发的持续投资。客户希望他们的基础模型在安全、公平和可靠性方面得到充分考虑,以便能够负责任地部署AI。在今年的AWSre:Invent大会上,我们兴奋地宣布推出新的功能,以促进生成式AI的负责任创新,这些功能包括内置工具、客户保护、增强透明度的资源,以及打击虚假信息的工具。我们旨在为客户提供必要的信息,以便在毒性和稳健性等关键的负责任AI考量方面评估基础模型,并引入保护措施,以根据客户的用例和负责任的AI政策应用这些保障措施。同时,客户希望更好地了解AI服务和基础模型的安全性、公平性、可靠性和其他属性,以便在自身组织内使用。
安全性是大规模引入生成式AI的首要任务。组织希望在其客户与生成式AI应用之间促进安全互动,避免有害或冒犯性语言,并与公司政策保持一致。实现这一目标的最简单方法是为整个组织提出一致的保护措施,以便所有人都能安全创新。我们昨天宣布了的预览,这是一项新功能,使得基于客户用例和负责任的AI政策轻松实施特定于应用的保护措施。
Guardrails确保Amazon Bedrock上的基础模型在应用内对不当和有害内容的响应保持一致。客户可以将保护措施应用于AmazonBedrock上的大型语言模型以及经过微调的模型,并结合使用。Guardrails允许用户指定需要避免的话题,服务会自动检测并阻止属于限制类别的查询和回应。客户还可以配置不同类别(如仇恨言论、侮辱、性化语言和暴力)的内容过滤阈值,从而达到所需的有害内容过滤水平。例如,在线银行应用可以设置为避免提供投资建议,并限制不当内容(如仇恨言论、侮辱和暴力)。在不久的将来,客户还将能够从用户输入和基础模型的响应中删除个人身份信息(PII),设置低俗语言过滤器,并提供自定义阻止词列表,进一步保护用户。通过Guardrails,您可以在保持与公司政策一致的保护措施的同时,更快地使用生成式AI进行创新。
如今,组织有多种基础模型选择,以支持其生成式AI应用。为了在准确性和性能之间取得平衡,组织必须有效地比较模型,寻找基于关键负责任AI和质量指标的最佳选项。然而,评估模型的过程往往耗时费力。组织必须花费数天时间识别基准、设置评估工具和运行测试,这需要深厚的数据科学专业知识。此外,这些测试对评估主观标准(例如品牌形象、相关性和风格)并不有效,这类评估通常需要经过繁琐而耗时的人为审查流程。针对每个新用例进行的这些评估所需的时间、专业知识和资源,使得组织很难在负责任的AI维度上评估模型,并为选择能够提供最佳准确性和安全体验的模型做出明智决定。
现在推出的功能,可以帮助客户根据自定义指标(如准确性和安全性)进行评估、比较和选择最佳基础模型,评估方式包括自动和人工两种。在AmazonBedrock控制台中,客户可以选择要比较的基础模型,以及具体任务(如问答或内容总结)。对于自动评估,客户可以选择预定义的评估标准(如准确性、鲁棒性和毒性),并上传测试数据集或从公共可用数据集中选择。对于需要判断的主观评估或复杂内容,客户只需几次点击即可轻松设定基于人工评估的工作流程。通过这些工作流程,客户可以利用内部团队,也可以使用AWS提供的管理团队来评估模型响应。在人工评估期间,客户可以定义特定用例的指标(如相关性、风格和品牌形象)。一旦客户完成设置过程,AmazonBedrock将执行评估并生成报告,以便客户轻松了解模型在关键安全性和准确性指标上的表现,并选择最适合其用例的模型。
这种模型评估能力不仅限于Amazon Bedrock,客户还可以在Amazon SageMakerClarify中使用模型评估,以轻松评估、比较和选择在准确性、鲁棒性和毒性等关键质量和责任指标上表现最佳的基础模型选项。
今天,我们宣布了预览版的,使客户能够快速、大规模地生产和增强高质量图片。我们在模型开发的每一个阶段都充分考虑了负责任AI,包括选择训练数据、构建过滤能力以检测和去除不当的用户输入和模型输出,以及提高模型输出的人口多样性。所有AmazonTitan生成的图像默认都包含不可见水印,旨在通过提供一种隐蔽的机制来识别AI生成的图像,从而减少虚假信息的传播。AWS是首批大规模推出集成在图像输出中的内置不可见水印的模型提供商之一,这些水印设计上能够抵抗篡改。
建立客户信任是AWS的核心使命。自成立以来,我们与客户一道走过了漫长的旅程。在生成式AI不断发展的背景下,我们仍然致力于与客户共同开发创新技术。为了使客户能够充分利用我们的生成式AI能力,他们需要知道自己得到了保护。AWS为以下Amazon生成式AI服务的输出提供版权赔偿:AmazonTitan Text Express、Amazon Titan Text Lite、Amazon Titan Embeddings、Amazon TitanMultimodal Embeddings、Amazon CodeWhisperer Professional、、和。这意味着,负责任地使用这些服务的客户将受到保护,免受第三方关于其输出违反版权的索赔指控(请参阅的第50.10节)。此外,我们还为使用这些服务提供标准的知识产权赔偿,以保护客户不受第三方关于服务及其训练数据侵犯知识产权的指控。如果您使用上述任何Amazon生成式AI服务并面临知识产权侵权诉讼,AWS将为您辩护,并承担您可能需要支付的任何判决或和解费用。
我们将支持我们的生成式AI服务并不断改进。随着AWS新服务的推出和生成式AI的不断演变,AWS将继续全力以赴,赢得和维护客户的信任。
在re:Invent 2022展会上,我们推出了AWS AI服务卡,作为提升透明度的资源,帮助客户更好地理解我们的AWSAI服务。AI服务卡是一种负责任AI文档,为客户提供了一个地方,以便找到有关服务的预期用例和局限性、负责任AI设计选择,以及部署和性能优化的最佳实践的信息。这些都是我们在以负责任的方式构建服务时所进行的全面开发流程的一部分,涉及公平性、可解释性、准确性和稳健性、治理、透明度、隐私和安全性、安全性以及可控性。
在今年的re:Invent展会上,我们宣布了一个新的,旨在提高对基础模型的透明度。同时,我们还推出了四个新的AI服务卡,包括:、、 和 。您可以在上探索这些卡片。随着生成式AI的不断发展与演变,技术开发、测试和使用透明度将成为赢得组织和客户信任的重要组成部分。AWS承诺继续为更广泛的社区提供透明度资源,如AI服务卡,并积极收集反馈,以推进最佳实践。
我们对在这周的re:Invent大会上所宣布的新创新感到兴奋,这些创新为我们的客户提供了更多的工具、资源和内置保护,以安全地构建和使用生成式AI。从模型评估到保护措施再到水印,客户现在可以更快地将生成式AI引入其组织,同时降低风险。为客户提供的新保护措施,如知识产权赔偿和提升透明度的新资源,例如附加的AI服务卡,都是我们在科技公司、政策制定者、社区团体、科学家等之间建立信任的重要例证。我们持续在基础模型的整个生命周期中进行负责任的AI投资,帮助我们的客户以安全、可靠和负责任的方式扩展AI。
删除)彼得·哈利南 是AWSAI中负责任AI科学与实践的领导者,与一支负责任AI专家团队合作。他拥有深厚的AI专业知识(哈佛大学博士)和企业精神(Blindsight以175万美金售予亚马逊)。他曾担任斯坦福大学医学部的咨询教授,并担任麦达加斯加美国商会会长。他喜欢和孩子们一起去山区滑雪、攀岩、远足和泛舟。
删除)瓦西·菲洛敏 目前是AWS的生成式AI副总裁。他领导包括Amazon Bedrock、Amazon Titan和AmazonCodeWhisperer在内的生成式AI工作。
Leave a Reply