用戶登錄投稿

中國作家協(xié)會主管

人工智能介入寫作帶來的三大問題
來源:文藝報 | 蔡 嘯 吳 娜  2024年09月23日09:30

以人工智能(AI)為驅(qū)動的第四次科技浪潮已經(jīng)來臨,正深刻改變千行百業(yè)和整個經(jīng)濟(jì)社會,并成為國際科技實力競爭的焦點之一。而以ChatGPT為代表的生成式AI大模型,讓AI寫作變得極為便捷、高效,已經(jīng)廣泛應(yīng)用于幾乎所有需要文本寫作的領(lǐng)域。有作家表示,一個勤奮的作家創(chuàng)作一百萬字的小說原本需要一年多,現(xiàn)在借助AI工具需要一兩個月,以后還可以縮短為一到兩周,已經(jīng)接近閱讀這篇小說的時間了。然而,隨著AI寫作的橫空出世與快速發(fā)展,關(guān)于其權(quán)屬主體、信息泄露等方面的爭議和憂慮也隨之而來。

一、AI是不是創(chuàng)作主體

AI能夠生成以往沒有的新內(nèi)容,其作用遠(yuǎn)超傳統(tǒng)的寫作工具如筆或電腦。因此一些學(xué)者和作者認(rèn)為應(yīng)當(dāng)賦予AI創(chuàng)作主體地位,創(chuàng)作主體已經(jīng)不限于人類了。有的作者甚至在作品署名時加上了AI,認(rèn)為應(yīng)該尊重AI的貢獻(xiàn),否則就是竊取其勞動成果。但是,在法律上,AI不具備法律主體地位,也無法獨立創(chuàng)作,只能按照人類發(fā)出的指令生成文本。AI生成的文本需要人類修改完善后才能交付。

另一種觀點認(rèn)為,應(yīng)限制AI寫作的使用,以維護(hù)創(chuàng)作的純潔性和人類的主體性。在2022年的某些文學(xué)競賽中,明確規(guī)定禁止AI參與創(chuàng)作。但很快隨著ChatGPT的橫空出世,帶動一大批大模型推出,包括功能的迅速完善迭代,無數(shù)人開始使用AI寫作,限制的呼聲越來越弱。AI寫作可能會像洗衣機(jī)、電腦、智能手機(jī)一樣,逐漸成為人人使用、不可或缺的生產(chǎn)和生活工具。

我們再從創(chuàng)作能力看,AI難以真正理解人類情感和復(fù)雜的文化背景,寫作質(zhì)量也高度依賴輸入數(shù)據(jù)的豐富性和多樣性,這限制了其在文學(xué)創(chuàng)作中的深度和真實性,以及在職場文本寫作中契合實際的程度。AI尤其可能生成違反倫理道德甚至違反法律的文本,因此在正式交付使用或發(fā)表之前,必須依賴人類作者審核和修改。如果文本中出現(xiàn)了道德或法律問題,責(zé)任不應(yīng)歸咎于AI,而應(yīng)由人類作者承擔(dān)。

此外,文藝作品的創(chuàng)作需要作者的人生經(jīng)歷和情感體驗,很大程度上是感性的過程,而機(jī)器是高度理性的。盡管AI能模擬人類情感的抒發(fā),但情感的復(fù)雜性導(dǎo)致將其變成數(shù)據(jù)編碼十分困難,AI能模仿和表達(dá)的只是皮毛。

因此,只有當(dāng)AI真正具備情感和欲望時,它才可能獨立創(chuàng)作出真正的藝術(shù)作品,并為自己爭取創(chuàng)作主體地位。但是,那時候,AI甚至可能產(chǎn)生統(tǒng)治地球和人類的想法并付諸實施,其對人類社會的影響將遠(yuǎn)遠(yuǎn)超出AI寫作的范疇。

二、作品權(quán)屬如何劃分

與上個問題相關(guān),AI參與創(chuàng)作的作品,其版權(quán)、著作權(quán)、專利等權(quán)屬應(yīng)當(dāng)屬于誰呢?首先,AI無法享有知識產(chǎn)權(quán),因為我國法律主體僅包括自然人、法人、非法人組織和國家,只有這四種主體才能享有權(quán)利并承擔(dān)義務(wù),這也是整個法律體系的基石。而AI不是法律上的權(quán)利義務(wù)主體,也就不能擁有權(quán)屬。若要賦予AI法律意義上的權(quán)利和義務(wù),則必須改變整個法律體系的基石,這將引發(fā)一系列連鎖反應(yīng)。

其次,任何權(quán)利的獲得要么是權(quán)利主體自己爭取要么有利益代言人。但AI目前只是執(zhí)行指令,沒有訴求,也不會多少人真心想要為AI爭取權(quán)利。從必要性和可行性來看,為AI賦予權(quán)利義務(wù)都不是短期的事。除非像科幻小說描述的,AI產(chǎn)生了意識、情感、欲望,要為自己爭取權(quán)利。

最后,在司法實踐中,判斷一篇文章或作品是否使用了AI,從AI文本生成的機(jī)制、作者的后續(xù)修改等角度來看,無論是通過專家鑒別還是技術(shù)手段,都難以發(fā)現(xiàn)物理痕跡,也無法得出具備法律效力的確定結(jié)論。這些內(nèi)容是采用人類語言、模擬人類思維創(chuàng)建的,筆者認(rèn)為其與人類創(chuàng)作的作品在本質(zhì)上沒有區(qū)別,難以清晰區(qū)分。即使我們憑感覺能判斷出AI的參與,但很多時候也很難找到實際的“證據(jù)”。

還有人認(rèn)為,如果使用他人的作品和數(shù)據(jù)訓(xùn)練大模型,或者使用這個大模型生成文本,就要給原作者權(quán)屬。但這在法律上都未被認(rèn)可。訓(xùn)練模型的數(shù)據(jù)來源與授權(quán)必須合法,這是另一個法律問題。對于使用這個模型的人而言,就像租用了一臺機(jī)器去耕作,收獲的小麥不需要分給機(jī)器所有者,更不需要分配給機(jī)器。另外,由于AI生成文本是隨機(jī)的,即便不同作者使用同一工具輸入完全相同的指令,生成的文本也不會完全相同,因此版權(quán)糾紛的可能性較低。

因此,在筆者看來,AI生成的作品的權(quán)屬無爭議地歸屬于使用AI的人類作者。

三、如何解決隱私和保密問題

AI寫作需要將數(shù)據(jù)、文本、指令以及用戶信息傳輸給平臺,而平臺掌握這些信息后,存在信息安全和隱私泄露的風(fēng)險。尤其是開放的平臺還會遭受互聯(lián)網(wǎng)的攻擊。這就限制了AI寫作的應(yīng)用,有的重要政府部門已經(jīng)明文禁止使用某些AI工具寫作。

從保密角度考慮,自行開發(fā)寫作大模型,并在對外封閉、對內(nèi)聯(lián)通的網(wǎng)絡(luò)中使用,所有的東西都掌握在手里,無疑是最安全的。

但是了解AI寫作原理的人都知道,開發(fā)一個寫作大模型的成本非常高。由于寫作涉及的領(lǐng)域十分廣泛,即便是一份報告或一部小說,也可能跨越多個行業(yè)和領(lǐng)域,因此訓(xùn)練、運(yùn)營、維護(hù)大模型的成本非常高。類似于ChatGPT的大模型,需要海量的數(shù)據(jù)、算力、存儲,還有運(yùn)算的基座,基本是百億人民幣起步。ChatGPT訓(xùn)練用的數(shù)據(jù)就是整個互聯(lián)網(wǎng)上所有數(shù)據(jù),涵蓋了人類幾千年歷史積累的知識、信息。因此,訓(xùn)練這樣的大模型只有極少數(shù)實力雄厚的大型機(jī)構(gòu)才有可能完成。當(dāng)然,利用免費的開源數(shù)據(jù)進(jìn)行二次修改可以大幅降低成本,但正如有人所說,“免費的往往是最貴的”,你無法要求數(shù)據(jù)提供者提供個性化服務(wù),也無法知道其中是否隱藏了潛在的風(fēng)險。

將已有的AI寫作平臺作私有化部署,實現(xiàn)與互聯(lián)網(wǎng)的物理隔絕也是一種不錯的選擇。在局域網(wǎng)內(nèi)部署高水平的寫作大模型,其成本在千萬人民幣級別,大型企業(yè)和政府機(jī)構(gòu)已經(jīng)具備承受能力。只不過你至少要有一個封閉的內(nèi)網(wǎng),并且有這個需求,愿意花這筆錢。可惜的是,最先破局并且筆者認(rèn)為使用體驗較好的ChatGPT4,還沒有開放私有化部署。

那么軍隊、政府部門這種安全訴求大于效率訴求的機(jī)構(gòu),可以自主開發(fā)大模型并做內(nèi)部部署。關(guān)乎國計民生的金融、能源、交通等領(lǐng)域也可以這么做。其他大型機(jī)構(gòu)可以在內(nèi)部部署現(xiàn)成的AI寫作平臺,成本低很多,安全性也會差一些。包括作家在內(nèi)占絕大多數(shù)的散戶寫作者,使用大模型服務(wù)商的服務(wù)是最佳選擇。這需要將指令傳到外部云端,在云端運(yùn)算完再把結(jié)果傳回來,隱私和保密就難以保障了。當(dāng)然這也可以通過不斷完善立法和執(zhí)法予以規(guī)范,現(xiàn)階段個人作者在使用AI寫作時應(yīng)具備保密意識,避免將需要保密的信息傳給大模型。

總之,從科技發(fā)展的趨勢來看,AI的作用將日益增強(qiáng),這一趨勢不可阻擋。隨著AI功能的完善和應(yīng)用的擴(kuò)展,越來越多的人將在更多領(lǐng)域使用AI寫作,這也將引發(fā)更多的爭議和問題。甚至可能會出現(xiàn)一個新的奇點,顛覆我們現(xiàn)有的認(rèn)知。AI必將在爭議中迅速前行,因此,擁抱AI、善用AI、完善AI,是我們必須面對和實踐的課題。

(蔡嘯系北京作家協(xié)會會員、湖南大學(xué)行業(yè)產(chǎn)業(yè)研究生導(dǎo)師,吳娜系中國移動研究院AI中心主任研究員、高級工程師)