当前位置: 华文星空 > 宠物

如何看待一男子宠物狗患病兽医难断病因,询问 GPT

2023-03-29宠物

这个例子,可以说明GPT-4确实是各行各业的好帮手。

ChatGPT,以及各种大模型,其实在很多领域是能取代人类的,但医学领域,取代人类的可能性很小,除了因为它不能承担责任之外,更重要的是你不知道它的推理过程。它是有可能给出错误的答案的。

虽然OpenAI宣称,GPT-4进步很大,在产生基于事实的回应( factual responses )方面提高了40%,但也有一定概率产生错误的回应

「We spent 6 months making GPT-4 safer and more aligned. GPT-4 is 82% less likely to respond to requests for disallowed content and 40% more likely to produce factual responses than GPT-3.5 on our internal evaluations.」 –OpenAI

在个案上,它可以给出挺不错的回答,甚至解决方案。但是 这不代表我们可以认为AI就能在某些专业领域取代人类,尤其医学领域。

Gary Marcus在前几年提出了「AI鸿沟」的「三大坑」,我在之前的回答里多次提到过,例如

这三大坑是:

第一是「轻信坑」,这是由于人类进化的现实过程还没有发展出清晰辨别人类与机器之间区别的能力,导致我们往往用基于人类的认知模式去看待机器的能力,从而容易轻信机器拥有人类般的智慧。
第二是「虚幻进步坑」,每当AI技术的进展攻克了一类新的问题时,我们往往错误地假设AI技术就能解决以此推及的、现实世界中的类似任务。但是AI学术上的问题往往是定义在狭义而简化的假设下,而现实世界的具体任务都有很大的复杂性和不确定性。
第三是「鲁棒坑 」,受限于当前深度学习算法和训练数据,对容错性很低特别是使命关键的应用领域比如无人驾驶等,今天的AI还没能达到实际「落地」的能力。马库斯 告诫我们必须关注「AI鸿沟」,因为踩坑的代价是非常高的。

我认为在GPT-4时代,我们更要警惕这三大坑。我们要把AI为己所用,但依然不能轻信AI的所有决策,我们更需要保持头脑清晰,自己做好自己决策的最后一道防线。