[color=rgba(0, 0, 0, 0.87)]生成式AI技術讓不實研究變得更加隱蔽且難以分辨,學術界的專家、出版商和誠信檢測機構紛紛感到憂心。隨著生成式AI的迅速發展,學術界面臨一波前所未見的造假挑戰──不僅是篡改數據,甚至大量「偽造論文」也成為新問題。
生成式AI帶來的學術誠信危機[color=rgba(0, 0, 0, 0.87)]AI生成的文字、圖像和數據易於操控,讓學術出版物充斥著隱形的假圖像和結論。德國FEBS Press的圖像完整性專家珍娜·克里斯多福(Jana Christopher)表示,隨著生成式AI的技術快速提升,圖像和數據的造假也變得更加複雜。克里斯多福指出,AI生成的數據幾乎無法單憑肉眼分辨,這加劇了審查難度。
圖像與數據偽造的難題[color=rgba(0, 0, 0, 0.87)]儘管一些學術期刊允許在部分情況下使用AI生成的文字,但對AI生成數據和圖片則仍持謹慎態度。來自美國的圖像鑑識專家伊麗莎白·比克(Elisabeth Bik)表示,AI生成的文本或許會逐步被接受,但對於數據和圖像的生成使用,應該更嚴格控管。她觀察到,部分偽造數據和圖像很可能已在學術論文中悄然出現。
[color=rgba(0, 0, 0, 0.87)]與傳統Photoshop偽造的圖像不同,AI生成的圖片缺乏明顯的瑕疵或痕跡,讓專家難以識別。過去的偽造圖像往往會有背景重複、不規則邊緣等細微線索,但生成式AI的假圖像則幾乎無法用肉眼判斷其真偽。隨著AI技術的不斷成熟,這些圖像愈發逼真,讓審查人員面臨更大的挑戰。
用AI檢測工具對抗AI造假[color=rgba(0, 0, 0, 0.87)]為了應對生成式AI的造假威脅,業界開始積極開發檢測工具,如 Imagetwin 和 Proofig。這些工具使用AI技術來檢測學術圖像中的完整性問題,並進一步升級軟體以識別生成式AI製作的圖像。Proofig的內部測試顯示,該工具在檢測AI生成的顯微圖片方面準確率高達98%。
出版商加強防範措施[color=rgba(0, 0, 0, 0.87)]一些學術出版商已注意到論文中出現疑似AI生成的內容。PLoS期刊團隊透過內部調查,發現了一些帶有AI生成痕跡的文本和數據。Springer Nature 也開始著手開發自家檢測工具,以便更有效地篩查論文中可能存在的造假行為。國際學術技術與醫學出版商協會(STM)則針對AI造假問題成立了 Integrity Hub,致力於打擊論文工廠及學術不誠實行為。
前瞻性的造假防禦措施[color=rgba(0, 0, 0, 0.87)]隨著AI造假技術的進步,學術界面臨的挑戰將越來越多。然而,學術誠信專家凱文·派翠克( Kevin Patrick)表示,造假者應該提高警覺,因為現今可能無法察覺的造假數據,未來技術一旦進步,終將無所遁形。
[color=rgba(0, 0, 0, 0.87)]「我們相信,科技的進步將最終幫助我們揭露這些隱藏的假數據,」派翠克指出,雖然造假者可能一時逃過檢測,但這並非長久之計,未來造假行為必將被揭穿。
[color=rgba(0, 0, 0, 0.87)]資料來源:
歡迎光臨 伊莉討論區 (http://a404.file-static.com/) | Powered by Discuz! |