Google用人工智能凸顯出人類認(rèn)知的缺陷
如今,一些看起來非常像人類的句子實(shí)際上是由人工智能系統(tǒng)生成的,這些系統(tǒng)已經(jīng)在大量的人類文本中進(jìn)行了訓(xùn)練。人們習(xí)慣于假定流暢的語(yǔ)言來自于有思想、有感覺的人類,以至于相反的證據(jù)可能難以理解,并且認(rèn)為如果一個(gè)人工智能模型能夠流暢地表達(dá)自己,就意味著它也像人類一樣思考和感受。
因此,Google的一名前工程師最近聲稱,Google的人工智能系統(tǒng)LAMDA有自我意識(shí),因?yàn)樗梢孕坜q地生成關(guān)于其所謂感受的文本,這也許并不奇怪。這一事件和隨后的媒體報(bào)道導(dǎo)致了一些文章和帖子,懷疑關(guān)于人類語(yǔ)言的計(jì)算模型是有生命的說法。
由Google的LaMDA等模型生成的文本可能很難與人類寫的文本區(qū)分開來。這一令人印象深刻的成就是一項(xiàng)長(zhǎng)達(dá)數(shù)十年的計(jì)劃的結(jié)果,該計(jì)劃旨在建立能夠生成符合語(yǔ)法、有意義的語(yǔ)言的模型。今天的模型,即接近人類語(yǔ)言的數(shù)據(jù)和規(guī)則集,在幾個(gè)重要方面與這些早期的嘗試不同。首先,它們基本上是在整個(gè)互聯(lián)網(wǎng)上訓(xùn)練的。第二,它們可以學(xué)習(xí)相距甚遠(yuǎn)的詞語(yǔ)之間的關(guān)系,而不僅僅是相鄰的詞語(yǔ)。第三,它們通過大量的內(nèi)部進(jìn)行調(diào)整,甚至連設(shè)計(jì)它們的工程師都很難理解為什么它們會(huì)產(chǎn)生一個(gè)詞的序列而不是另一個(gè)。
大型人工智能語(yǔ)言模型可以進(jìn)行流暢的對(duì)話。然而,它們沒有要傳達(dá)的整體信息,所以它們的短語(yǔ)往往遵循常見的文學(xué)套路,這些套路是從被訓(xùn)練的文本中提取的。人腦有推斷詞語(yǔ)背后意圖的硬性規(guī)定。每次你參與談話時(shí),你的大腦都會(huì)自動(dòng)構(gòu)建一個(gè)談話伙伴的心理模型。然后,你利用他們所說的話,用這個(gè)人的目標(biāo)、感覺和信念來填補(bǔ)這個(gè)模型。從話語(yǔ)到心理模型的跳躍過程是無(wú)縫的,每當(dāng)你收到一個(gè)完整的句子時(shí)就會(huì)被觸發(fā)。這個(gè)認(rèn)知過程在日常生活中為你節(jié)省了大量的時(shí)間和精力,大大促進(jìn)了你的社會(huì)互動(dòng)。然而,在人工智能系統(tǒng)的情況下,它卻失靈了,因?yàn)樗鼞{空建立了一個(gè)心理模型。
一個(gè)可悲的諷刺是,讓人們把人性賦予大型人工智能語(yǔ)言模型的認(rèn)知偏見也會(huì)導(dǎo)致它們以不人道的方式對(duì)待真正的人類。社會(huì)文化語(yǔ)言學(xué)研究表明,假設(shè)流暢的表達(dá)和流暢的思維之間的聯(lián)系過于緊密,會(huì)導(dǎo)致對(duì)不同的人產(chǎn)生偏見。例如,有外國(guó)口音的人往往被認(rèn)為是不太聰明,不太可能得到他們所勝任的工作。對(duì)那些不被認(rèn)為是有聲望的方言,如美國(guó)的南方英語(yǔ),對(duì)使用手語(yǔ)的聾啞人,以及對(duì)有口吃等語(yǔ)言障礙的人,也存在類似的偏見。這些偏見是非常有害的,往往會(huì)導(dǎo)致種族主義和性別歧視的假設(shè),并被一再證明是毫無(wú)根據(jù)的。