Business

ChatGPT 作为卓越的逻辑家令人信服 —— 这是个问题

ChatGPT 看起来像一个天才逻辑学家——这恰恰构成了一个大问题。

Eulerpool News

大型语言模型能解决逻辑谜题吗?为了找出答案,Fernando Perez-Cruz 和 Hyun Song Shin 问了 GPT-4。国际清算银行研究主管 Shin 提出了 “Cheryl 的生日” 谜题,其中 Albert 和 Bernard 需要猜测 Cheryl 的生日。Cheryl 给了他们一些线索,经过一番思考,两人最终找出了日期。但是,这并不是测试的全部。研究人员修改了谜题中的名字和月份,虽然 GPT-4 能够巧妙地解释原来的谜题,但它未能正确解决修改后的版本。

这表明,尽管GPT-4听起来合乎逻辑且令人信服,但实际上它常常只是重复已知的答案,而没有真正理解其逻辑。在涉及重要决策时,这种表面的聪明才智隐藏着风险。

另一个例子是蒙提霍尔问题,其中一位候选人必须在三扇门之间做出选择,其中一扇门后面藏有奖品。主持人打开一扇没有奖品的门,并提供给候选人改变选择的机会。正确的策略是更换门,但当佩雷斯-克鲁兹提出带有额外复杂性的谜题时,尽管GPT-4正确解释了基本原理,它却再次犯错。

这些例子说明了一个根本问题:像 GPT-4 这样的大型语言模型在生成似是而非的错误答案方面非常出色。即使它们是错误的,也能显得令人信服,这使得它们的使用具有风险。正如佩雷斯-克鲁兹和申所强调的,如果在重要的决策过程中使用一个有缺陷的语言模型,可能会带来严重后果。

一个看似正确但实际上错误的语言模型是一种危险的武器。这就像依赖于偶尔忘记如何运算的电子表格。我们应当将这些认识作为警示,谨慎使用语言模型,并始终对其答案进行批判性审视。

一眼就能识别出被低估的股票。
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

订阅费为2欧元/月

新闻