新闻资讯

ChatGPT “一本正经的胡扯”怎么办?NVIDIA推出安全“护栏”(2023ChatGPT安全护栏)

2023-04-28 23:59:25作者:小编酱

近期本站获悉,生成式AI(如GPT)在文本生成、自然语言处理等方面取得了非常惊人的成就,但在某些领域或问题上,它们确实可能存在一些问题或限制。

首先,AI模型的训练数据通常是基于大量数据集而构建的。尽管这使得AI对大量数据的应用变得更加精准,但它也可能导致AI运用过度概括的方式处理少量数据,导致错误的输出。因此,AI的正确性和准确性只能是建立在训练数据和模型架构的正确性的基础之上。AI的决策和推断过程也很难突显其志愿性,这就使得AI难以处理类似人类需要理解语境、上下文背景的问题。此外,因为AI缺乏人类的“逻辑推理”,所以它们很容易陷入漏洞和矛盾之间。

AI系统在媒体、新闻、娱乐等领域创造出的文本、音频和视频内容具有很大的影响力,但受到其产生的内容的控制要素较少的影响,其准确性和正确性都需要审慎考虑。在一些场合,AI系统可能面临难以处理信息的风险、造假的风险和易被欺骗的风险。

近日,NVIDIA推出了一款名为NeMo Guardrails的软件,它能够为人工智能模型设置安全“护栏”,避免AI输出一些不良的内容。据悉,NeMo Guardrails的本质是一个位于用户和模型之间的软件层,它能够在模型输出不良内容前进行拦截和修改。据官方介绍,NeMo Guardrails主要提供三种“护栏”模式,分别是:1、主题护栏:可以避免应用程序偏离到不想要的领域。2、安全护栏:确保应用程序回复准确、适当的信息。3、保全护栏:限制应用程序仅与已知为安全的外部链接建立连接。

简单来说,该软件可以在模型输出不良内容之前进行拦截和修改,从而限制模型的输出范围,并防止模型产生错误或有害的输出。此外,该软件还能够利用一个 AI 模型来检测另一个 AI 模型”,从而提高模型的准确性和可靠性。

比如,如果用户需要一个针对特定方向的AI,就可以利用该软件,来限制AI至输出对应方面的内容,而不谈论不相关的话题。此外,该软件还能够利用一个AI模型检测另一个AI模型,如果两个模型输出的答案不一致,软件将直接输出“我不知道”的回答。

通过这种方式,人工智能“胡说八道”的情况会得到有效降低,一些可能存在危险的回复也能够被直接拦截。英伟达方面表示,受益于开放源代码的特性,NeMo Guardrails可以与企业应用程序开发人员使用的所有工具配合使用,有利于缩端开发时间,整合第三方应用程序与大型语言模型的强大功能,发挥更大的生产力。换句话说,该工具软件以开源方式推出,可以搭配多种大型语言模型使用。

点击收藏本站,随时了解时事热点、娱乐咨询、游戏攻略等更多精彩文章。

今日编辑铺热门推荐:零点一毫升 我的小农院 血染小镇 黑色星期五之夜

相关游戏攻略

相关游戏