5月3日消息,据外电报道,微软的一份新报告概述了该公司去年为发布负责任的人工智能平台所采取的步骤。
在主要涵盖 2023 年的《负责任的人工智能透明度报告》中,微软宣扬了其在安全部署人工智能产品方面取得的成就。
年度人工智能透明度报告是该公司去年7月与白宫签署自愿协议后做出的承诺之一。微软和其他公司承诺建立负责任的人工智能系统并致力于安全。
微软在报告中表示,它在过去一年中创建了 30 个负责任的人工智能工具,扩大了负责任的人工智能团队,并要求开发生成式人工智能应用程序的团队在整个开发周期中衡量和绘制风险。
该公司指出,它在其图像生成平台中添加了内容凭证,该平台在照片上添加水印,将其标记为由人工智能模型制作。
该公司表示,它为 Azure AI 客户提供了检测仇恨言论、性内容和自残等问题内容的工具,以及评估安全风险的工具。这包括新的越狱检测方法,该方法于今年 3 月进行了扩展,包括间接提示注入,其中恶意指令是人工智能模型摄取的数据的一部分。
它还正在扩大其红队工作,包括故意尝试绕过其人工智能模型中的安全功能的内部红队,以及红队应用程序,以允许在发布新模型之前进行第三方测试。
然而,其红队部队的工作却很艰巨。该公司的人工智能推出也未能幸免于争议。
当 Bing AI 于 2023 年 2 月首次推出时,用户发现该聊天机器人自信地陈述了不正确的事实,并一度教会人们种族歧视。 10 月份,Bing 图像生成器的用户发现他们可以使用该平台生成马里奥(或其他流行角色)驾驶飞机飞往双子塔的照片。泰勒·斯威夫特 (Taylor Swift) 等名人的 Deepfake 裸照在一月份在 X 上流传。
据报道,这些图片来自一个分享使用 Microsoft Designer 制作的图像的小组。微软最终堵住了生成这些图片的漏洞。
当时,微软首席执行官萨蒂亚·纳德拉 (Satya Nadella)表示,这些图像令人震惊且可怕。
微软首席人工智能官娜塔莎·克兰普顿 (Natasha Crampton) 在电子邮件中表示,该公司明白人工智能仍是一项正在进行的工作,负责任的人工智能也是如此。
「负责任的人工智能没有终点线,所以我们永远不会考虑我们在自愿人工智能承诺下的工作。但自签署以来我们已经取得了巨大进展,并期待今年继续保持我们的势头。」克兰普顿说。