如果你還沒有確認正確性的能力,千萬不要使用 AI 去做你無法驗證的事。
最近有同學在 Office hour 問我問題,我發現他的提問有點奇怪,在我進一步釐清並追問之後,才發現原來同學是使用 AI 工具去讀論文。
這段文字,你先看看,哪裡奇怪?
主題我稍微做點馬賽克,大概類似「給予病人某介入之後,去評估疼痛指數的下降程度」。所以他用 PubMed 找了有這些介入也有疼痛指數的論文,全部丟進 AI 工具裡面。
接著,他對這些 AI 工具詢問,請他們萃取出做統合分析需要的數值。
AI 給了一堆中文說明跟歸納,並告訴他,其中好幾篇文章,並沒有給出疼痛指數的數據。
看出矛盾點了嗎?要公布解答囉!
我開始覺得奇怪的地方,就是「你明明找論文是有介入也有疼痛指數的,但為什麼同學會問我,如果論文沒有給疼痛指數怎麼辦?」(這不是矛盾了嗎?)
之後同學傳了 AI 的截圖給我看,我才發現,是 AI 跟他說,某些某些論文沒有提供相關資訊。
但其實不是的,AI 只是看不懂或者沒看到,或者隨便跟你說。目前 AI 對於解析學術論文的細節是有點問題的。
為了驗證,把自己寫的論文丟進去試試。
為了確認這件事,我也把最近自己所寫的統合分析論文中,所收集到的原始 trial 的 PDF,全部丟進去。
不管我是問單篇,或者問全部,我發現他都煞有介事的在亂講。明明有給數據的,他說沒給,而它萃取到的數據,有些不知道從何而來,有的也萃取錯了。
小心,你的決策可能被 AI 誤導了!
藉由以上的故事,我想說的是,如果你叫 AI 做一件其實你並不知道正確答案,也沒有驗證管道的事情,是很可怕的。
能作的主題,你會誤以為不能做。明明有資料的,你會以為沒有資料。他給你錯誤數據的,你以為是真的。這些都會造成你在決策上的嚴重錯誤。
即使你只使用 AI 來做英翻中閱讀,或者做中翻英寫學術論文,所出的文字,自己都應該全部看過,確認一下其表達的精確性。
AI 可以是超棒的輔助工具,但你必須有驗證能力。
在 AI 能夠協助許多工作的時代,擁有核心能力,並能夠確認正確性,懂得如何去驗證,是更重要的能力。
如果,沒有人認真的跟同學說這件事情,他有可能自認為找到了很好的工具,花了幾個月的時間整理資料,叫 AI 萃取出不知從何而來的數據,根據這些錯誤數據去畫圖,再找 AI 寫出邏輯怪異且論述很表面的一大堆文字,看起來像篇論文後,在期刊社耽誤了幾個月,依然被退稿。
浪費了時間,也浪費的心神。
寫出的文章,AI 不用負責,但你要!
AI 作為「有能力者」的輔助,協助腦力激盪,產生一些可能的論點,是不錯的使用方法。但要把它當成工作的主力,押上自己的名字、賭上自己的學術聲譽,是很可怕的。
簽上的是我們自己的名字,負責的也是我們自己,需要做好品質管控的,也是我們自己。
來上個課,除了學會能力之外,還有老師可以問,協助你避開重大錯誤。
最新活動