微软向美国政府提供GPT的大模型,安全性如何保证?

浏览:
字体:
发布时间:2023-06-16 13:10:29
来源:今日头条

微软公司在6月7日发布了一篇博客,宣布将向美国政府机构提供OpenAI人工智能大模型,利用其Azure云服务的能力。这是微软首次将GPT技术引入政府机构,同时也是全球首个将以GPT代表AI大模型引入政府的案例。此举传递出一个不同寻常的信号,特别是在全球各国机构和大型企业纷纷以“安全”为由禁用GPT大模型的背景下。

Azure政府客户可以使用微软Azure OpenAI服务,利用OpenAI的两个大型语言模型,分别是最新的GPT-4和早期的GPT-3大模型。微软表示,联邦、州和地方政府的客户可以通过这两个模型完成各种服务,例如生成研究问题的答案、生成计算机代码和总结现场报告等。此外,语言模型还可以针对特定任务进行调整,包括内容生成、语言到代码的翻译和摘要等。

微软在其商业云计算空间中托管OpenAI模型,并与Azure政府客户使用的云分开。后者遵守各种特定的安全和数据遵从规则,来自Azure政府客户的数据不会用于训练模型。

OpenAI是聊天机器人ChatGPT的开发公司,旗下拥有大语言模型GPT-3以及多模态模型GPT-4等产品。微软是OpenAI最大的投资者,于2019年向其投资了10亿美元,2023年1月又追加了第二笔多年投资,投资据称高达100亿美元。

自从OpenAI推出ChatGPT以来,AI大模型迎来了一股无与伦比的发展浪潮,包括谷歌、阿里、百度在内的大型企业纷纷发布了自己的AI大模型。其中微软、谷歌相继推出了网络安全领域的AI产品,引起了业界的广泛关注和讨论。

微软已向其商业客户提供了OpenAI模型,并且Azure OpenAI服务增长迅速。截至今年5月,已有4500名客户,包括沃尔沃、宜家、梅赛德斯-奔驰集团和壳牌等集团。

当今世界上,人工智能技术正在迅速发展,而大型语言模型作为其中的重要组成部分,具有广泛的应用前景。在这种背景下,微软公司的举动被视为是对AI技术发展的全新探索。

然而,随着大型语言模型的逐渐成熟和应用,其所带来的安全问题也不容忽视。有关专家指出,大型语言模型可能存在的风险包括隐私泄露、人类价值观偏差、误导性信息生成等多个方面。针对这些问题,目前还需要进一步的研究和探索,以确保人工智能技术的安全和可靠性。

除了安全问题,大型语言模型的高昂成本也是制约其应用普及的一个因素。目前,大型语言模型的训练成本和运行成本都非常高,这也限制了其在一些领域的应用。因此,在未来的发展过程中,如何提高模型的效率和降低成本,将成为一个重要的研究方向。

总的来说,微软公司利用Azure云服务向政府机构提供OpenAI人工智能大模型的举动,为人工智能技术的发展带来了新的探索和机遇。同时,在应用这一技术的过程中,我们也需要密切关注安全和成本等问题,以确保其能够为社会带来更多的价值和福利。

>更多相关文章
24小时热门资讯
24小时回复排行
资讯 | QQ | 安全 | 编程 | 数据库 | 系统 | 网络 | 考试 | 站长 | 关于东联 | 安全雇佣 | 搞笑视频大全 | 微信学院 | 视频课程 |
关于我们 | 联系我们 | 广告服务 | 免责申明 | 作品发布 | 网站地图 | 官方微博 | 技术培训
Copyright © 2007 - 2024 Vm888.Com. All Rights Reserved
粤公网安备 44060402001498号 粤ICP备19097316号 请遵循相关法律法规
');})();