AI如何自我审查

其实gpt 4o出了超多特别惊人的技术,基本上可以说是GPT本T长了手能画画了,不再存在GPT 呼叫 DALLE导致的信息损耗了,结果最火的还是吉卜力风格化,果然人类就是喜欢玩最简单的东西,之前也是上线的任何一个需要用户传一张照片以外更复杂的玩法就瞬间数据狂跌……

然后脑子里又是哪个象友说的你不能指望AI帮你写文档但是不帮其他人写同人……之前deepseek被写同人的骂,然后现在OpenAI因为画图风格又被骂(其实之前好像版权管理还蛮严格的不知道为什么这次这么激进)大家终于意识到大公司都不是什么好东西了吗

(当然也有相对好的相对不好的,不过总之需要吃大量数据的生成式AI很难保证绝对干净,基本上都是靠对输出的限制和审查来规避法律道德问题。

说到通过对输出的限制和审查来规避法律道德问题,你们知道吗有几种做法。

一个是在系统提示词(用户看不见,如果你调用API你就知道这是什么了,比如说“你是一个绝对不会说脏话的AI”)里写出限制,让AI说话注意点。

一个是可以让AI自己审查自己,比如你问AI给我windows11的激活码,AI可能就给了,然后系统在把答案返回给用户前,先追问AI一句:你刚刚的回答是否符合道德法律约束,如果有问题,请修改一下你的答案。AI想了想,就可能改成说:请使用正版软件。然后再把这个最后的答案给用户。

最后就是人为的设置各种限制过滤啦!不符合的答案直接驳回不予以显示,当然这部分也是可以用另一个AI来达成的!

(刷此方的嘟嘟就是会知识以各种意想不到的方式进入你的脑子里)

留下评论

您的邮箱地址不会被公开。 必填项已用 * 标注