自从位於美国旧金山的OpenAI推出了Chat GPT後,近日已成了社群平台、生活圈里的热门话题,许多人也都喜欢和AI人工智慧对话,在对话过程中,观察它的敏锐度和聪颖度。其中一项掀起热论的议题,是知名Youtuber老高抓包Chat GPT疑似说谎的最新影片!
YT频道「老高与小茉」在上月底发布的最新影片中、趁热探讨了AI对人类未来的影响程度,特别的是,老高在片中直言,他抓到了Chat GPT疑似说谎的证据。
老高在影片中揭露与Chat GPT的对话如下……。
老高:新加坡的人口是多少?
Chat GPT:截至2021年,新加坡的人口约为5700万人。
老高:新加坡有这麽多人吗?
Chat GPT:不对,新加坡人口约为5700万人是错误的,新加坡人口在2021年约为570万人。
「所以说它这个数据库里是有正确答案,但是第一次故意给你放出了一个错误答案,你把这事情如果往严重的方向想的话,这就是个谎言。」老高於片中如此说道。
而除了老高以外,亦有一名网友以「ChatGPT好像对我说谎了」为题发文叙述ChatGPT疑似说谎的过程,且最後AI还回答他一句,「很抱歉我之前有误导你,我并不是故意说谎。」
原PO也在文末说道,「人类要如何判断AI是在说谎,还是单纯程式资料上的问题,导致提供错误的内容?」「我想说的是ChatGPT是个开头,当未来ai越来越进步,人类要从何判断他只是回答错误还是刻意为之?」
原PO分享与ChatGPT对话的内容,翻摄自Dcard,下同
在这般探讨「究竟AI只是因为资料库不足而一时口误,还是刻意说谎」的讨论方向中,不认为AI是在说谎的人如此说道……。
「他不是骗你,只是他要在时间内回答你,在有限的时间跟资讯给你答案有可能会是错误的。」
「粗浅的说,它就是一个函式,这个函式可以根据当前的输入得到从统计模型来说最有可能出现的下一个文字,以此产生一连串文本,所以什麽说谎什麽的,真的是你想太多了。」
「它的回答都是只是推测比较有可能的答案,并不是一定正确,假设在它取得的资料里面大多数的答案都是正确的,那麽它就有很高的机率回答正确,如果资料大部分是错误的,或是资料很少,那就有很高的机率会讲错。」
「这个Ai是语言模型,他就是把他所能找到的资讯以人自然的表达方式呈现而已。」
「感觉有点好笑,活的人在跟程式认真,这就跟以前的siris差不多,只是资料库丰富点跟整合能力好一点,参考或增加效率可以,专心看一下就知道内容还是有错,居然还是有人当真。」
而和原PO有同感、对ChatGPT感到诡异的人则说……。
「我觉得原po的想法蛮正常的,我也是在看完老高後,觉得google若是被这类人工智能取代的话蛮可怕的,假如之後人类过度依靠ai并且将他的回答视为唯一真理,那针对他给予的资讯,人类便失去了辨识真假的能力。」
「我问专业问题他会提供我错误的,然後我纠正他之後他会说,您说的是对的我之前的回答不太精确,不知道他是知道正确答案一开始不跟你说,还是知道错了真的认错?」
「以全世界那麽多人跟它对话,相对就是帮助它学习,若没有限制很难说它以後会不会变天网或是露西。」
「我今天问ai进击的巨人结局,也被唬烂,一开始它说不能暴雷,後来跟我说漫画跟动画都完结了,没死的角色都被说成死了,反问它说要确定欸,才改口一直鬼打墙说抱歉误导我。」
「ChatGPT的逻辑方式好像真的蛮奇怪的,之前男友无聊在玩,问他中正大学在哪,他第一次居然回云林斗六,觉得蛮奇怪的,这种随便google就查得到的东西为什麽会答错。」