每个人擅长的方向是有限的,时间和精力同样是有限的,我们不可能对于所有信息都花足够的时间去小心求证,特别是考虑到对于非专业领域的求证成本很高。如果别人以很自信、看起来很专业的语气做出一个我乍一看发现不了问题的陈述,我倾向于暂且相信对方,否则我需要浪费很多时间去求证。但是问题来了,一方面AI的回答可靠性不够,另一方面AI的回答看起来又似乎很专业,如果滥用AI回答,那么轻则大幅增加求证成本,重则塑造错误的第一印象甚至群体记忆。
因此,请不要用ChatGPT来直接回答知乎问题!!要么你对ChatGPT的内容进行小心求证后,基于你自己的理解重新组织一篇回答。要么你直接搬运ChatGPT的回答,但请以相对醒目的方式注明这是AI自动生成的回答,而不是不加注明地搬运,否则这将会误导很多人!
当然,上面只是说了ChatGPT不可靠,并且喜欢一本道。下面我将拿一些例子说明ChatGPT究竟是怎么个一本道法——
想玩下这个AI的同学可以关注公主号,认清现实然后成长,回复gpt获取
例1——求sin的代码
这是我在该回答下看到的,发现评论区最初(在我辟谣前)很多人都认为AI很厉害,但实际上AI的回答错误百出,甚至基本上可以说是一本道。这也直接引发了我对滥用ChatGPT的担忧——ChatGPT的回答太过自信和具有迷惑性,这里尚且是注明了AI都会误导很多人,如果不注明是AI,很可能误导更多非专业人士。
这个求 sin 的代码,感觉无懈可击啊,为什么会不对呢?761 赞同 · 46 评论回答
这是这位答主与ChatGPT的对话过程,第一段分析基本上是对的,但是第二段分析可以说是纯纯的一本道。首先AI以十分自信地口吻说了一串内容,但遗憾的是这些内容基本上全错。
首先是x过大时后面的项会很大,才会导致精度丢失,并且精确求正弦函数值也不是AI胡诌的什么数值积分/复化辛普森积分算法,但凡知道数值积分是啥就会发现AI在胡扯。正确的算法是用诱导公式将参数约化到[0,π/4]再泰勒展开。
实际上AI出错完全是在预料之中的,但AI这种自信的口吻带来的危害就很恐怖了,不明真相的吃瓜群众很可能被AI的内容所误导。所幸的是这还是有标准答案的理工科知识,可以辩明,如果是在人文社科领域滥用ChatGPT,轻则误导很多人,重则塑造错误的群体记忆。
例2——一本道且蜜汁自信
详见酱紫君大佬回答中举的例子——
如何评价OpenAI的超级对话模型ChatGPT?1490 赞同 · 187 评论回答
例3——Routh-Hurwitz判据
如果你不熟悉Routh-Hurwitz判据,那么你可能认为ChatGPT回答得非常对。但如果你真的了解,那么你会发现这里面错误百出。这里我给一个我自己手动修正后的正确版本(严重错误用粗体进行了修正)——
Routh-Hurwitz判据是一种对于一个给定的多项式,判断多项式是否存在正实部根的方法。它通过分析多项式系数来实现这一目的。 为了使用Routh-Hurwitz判据,我们首先需要用多项式的系数构造一个表格(Routh表)。然后,我们要按照一定的规则来填充这个表格。如果最终得到的表格中的第一列中的所有元素都为正数,那么这个多项式的所有根都具有负实部;否则,就至少存在一个非负实部根。
总而言之,这个例子还算是可以补救的,只是说内容错误,但是思路对了。作为一个预搜索引擎使用还是可以的,把检索到的内容对照传统搜索引擎的结果再考证一遍就行。(值得说明的是,我用英文问这个问题,答案就很好,这恐怕是因为中文互联网太菜了)
例4——galgame
我稍微尝试了下用AI查了下我玩过的galgame/会社的资讯,发现令我大跌眼镜的是——AI的模板看起来很对,但是具体内容(如年份、作品)全错,某种意义上能全错也挺厉害的。下面是正解(当然我也很云玩家,也有可能有说错的地方,望海涵)
1. 《战女神》是Eushully社制作的(而不是AI说的Nitroplus),发售于1999年(而不是AI说的2003年)
2. Yuzu-Soft成立于2006年(而不是AI说的2010年),其中说的所有游戏都不是Yuzu-Soft的游戏(甚至都不是游戏)
3. 八月社成立于2001年(而不是AI说的2000年),其中说的所有游戏都不是八月社的游戏
4. Alicesoft成立于1989年(而不是AI说的1985年),其中说的所有游戏都不是Alicesoft的游戏
5. 枕社成立于2005年(而不是AI说的2003年),其中说的所有游戏都不是枕社的游戏
那么,如何正确地使用ChatGPT?
例1——说车轱辘话
当然,如果使用得当,ChatGPT还是很有用的。注意到ChatGPT非常擅长套模板说车轱辘话,只要说的话没有啥干货,就非常有用。
比如这学期我有新中特这门课,每节课都有思考题要写。让我们看看AI怎么答
卧槽,牛得一!正解就是“创新、协调、绿色、开放、共享”,以后直接让AI帮我写思考题就完事了。
例2——作为预搜索引擎
比如前几天我们要做一个考核作业,直接扔到ChatGPT里
像这种东西网上不好搜,用ChatGPT给出一个大概的方向,然后再逐个用搜索引擎进一步确认即可。
例3——人生意义、电车难题等无标准答案的相对主观问题
像对于人生意义等老生常谈的问题,它们本身没有标准答案,但AI能够以很简明的语言阐明结论。
总结
在我看来,ChatGPT学会了回答问题的范式与模板,但对于其中填充的具体内容并没有充分的理解。即使学会了前者就已经超越了许多表达能力、总结能力不足的普通人了,但如果内容本身的正确性得不到保证,反而会带来更强的误导性。毕竟一个逻辑混乱的人说的错误内容,我能轻易地发现其不靠谱。但如果是一个看起来符合范式的错误内容,发现其不靠谱之处就显得麻烦多了。如果滥用AI回答,最终只会导致回答质量的下降,从而使得获取/校验有效信息成本更高。