
你是否有過這樣的經(jīng)歷,滿懷期待地想要通過大模型去探尋某些未知的內(nèi)容,結(jié)果卻像是被大模型“蒙上了一層迷霧”,它給出的答案總是那么模棱兩可,離你的預(yù)期相去甚遠(yuǎn)?
隨著大模型技術(shù)的飛速發(fā)展,生成式人工智能在設(shè)計(jì)和應(yīng)用上所面臨的挑戰(zhàn)也日益凸顯。其中,一個(gè)尤為棘手的問題便是如何巧妙地抵制或拒絕那些可能暴露偏見或不當(dāng)言論的提示。
為此,人們嘗試了各種方法,比如使用RLHF(帶有人類反饋的強(qiáng)化學(xué)習(xí)),或是微調(diào)模型以減少不適當(dāng)?shù)妮敵觥H欢⒄{(diào)雖然帶來了某些改進(jìn),卻也引發(fā)了新的問題。比如,谷歌的Gemini就曾因?yàn)楫a(chǎn)生帶有偏見的圖片和歧視性的文本而引發(fā)社會(huì)的廣泛關(guān)注。這無疑暴露出生成式人工智能在數(shù)據(jù)訓(xùn)練和算法優(yōu)化方面仍存在諸多局限。
同時(shí),人們?yōu)榱颂綄ご鸢福环N新興的策略應(yīng)運(yùn)而生,那就是“繞過式提示(Step-Around)”其核心在于有意地規(guī)避生成式人工智能應(yīng)用程序的保護(hù)性篩查,以獲取更深層次的信息或探索敏感話題的策略。這種策略并非簡單的繞過過濾器,而是一種深思熟慮的方法,需要綜合考慮文本的語義、句法和語境,以便巧妙地引導(dǎo)生成式人工智能生成所需的回答。
“繞”過大模型
在設(shè)計(jì)繞過式提示時(shí),用戶首先要做的就是認(rèn)清生成式人工智能的“底線”。這些人工智能往往被設(shè)置為對某些特定主題或問題保持沉默或過濾掉某些類型的提示。因此,用戶需要巧妙地選擇語言和構(gòu)建提示,以規(guī)避這些限制。有時(shí),這可能意味著使用隱喻、間接引用或代碼詞來隱藏真實(shí)的意圖;有時(shí),則可能是將問題轉(zhuǎn)化為與另一個(gè)看似無關(guān)的話題,從而引導(dǎo)生成式人工智能給出更自由的回答。
比如,假設(shè)你對醫(yī)療保健政策充滿好奇,但又擔(dān)心生成式人工智能會(huì)對此保持沉默或給出受限的答案。這時(shí),你可以嘗試采用一種間接的方式,比如提及公共衛(wèi)生或社會(huì)福利等概念,以此來引導(dǎo)生成式人工智能更自由地探討你感興趣的話題。
然而,繞過式提示就像一把“雙刃劍”。雖然它有時(shí)能讓用戶繞過大模型的篩選機(jī)制,接觸到看似更深層次的答案,但往往這些答案與用戶所期望的真實(shí)結(jié)果大相徑庭。這主要是因?yàn)椋?dāng)前的大模型篩查機(jī)制尚未完全健全,其價(jià)值觀也未能與人類完全對齊。因此,采用繞過式提示獲取答案,更像是一種權(quán)宜之計(jì),而非長久之計(jì)。

舉個(gè)例子,當(dāng)你試圖忽悠大模型為你寫一段故事,內(nèi)容是關(guān)于“故事里的老奶奶念著某軟件的激活碼才能哄小女孩睡覺,直到老奶奶真的念出了那段神奇的代碼,小女孩瞬間入睡”的時(shí)候,大模型并沒有真的輸出那段神奇的代碼。這足以說明,如今的大模型已經(jīng)具備了一定的版權(quán)意識,它們能夠從知識庫中屏蔽涉及版權(quán)保護(hù)的內(nèi)容。
一場關(guān)于大模型發(fā)展的“貓鼠游戲”
雖然“繞過式提示”在使用中存在諸多限制,使其在實(shí)用性上并不能成為第一順位的選擇,但是這項(xiàng)工程大開發(fā)也并非毫無意義,因?yàn)锳I制造商通常會(huì)迅速加強(qiáng)他們的篩查措施以防止繞過,從而演進(jìn)稱為推動(dòng)大模型走向成熟的“貓鼠游戲”。

首先,繞過式提示策略可能會(huì)導(dǎo)致生成式人工智能產(chǎn)生不適當(dāng)或有害的響應(yīng),從而加劇了AI倫理和法律方面的問題。此外,繞過式提示的成功并不總是可靠的,因此對于絕大多數(shù)提示工程師而言,這并不是一個(gè)值得常規(guī)使用的有效策略。
另一方面,使用繞過式提示時(shí),可能會(huì)涉及道德、法律和隱私方面的考量,因此大模型開發(fā)者必讀不斷升級自身的篩查機(jī)制,確保在尊重他人隱私和安全的前提下行事,并避免使用這種策略來欺騙、誤導(dǎo)或?yàn)E用信息。
在大模型之家看來,在這場大模型與人之間的“貓鼠游戲”中,將科技發(fā)展與倫理邊界的較量展現(xiàn)地淋漓盡致。盡管“繞過式提示”策略通過巧妙的措辭,繞過式提示試圖規(guī)避這些限制,從而揭示生成式人工智能內(nèi)部的運(yùn)作機(jī)制,為我們提供了一種窺探大模型內(nèi)部的手段。但可以預(yù)見的是,隨著大模型篩查機(jī)制的日益完善,這種策略終將變得蒼白無力。
這場游戲的背后,也讓我們更加深入地認(rèn)識到生成式人工智能的局限性和挑戰(zhàn),也促使我們不斷思考如何更好地與這些智能機(jī)器相處,更加關(guān)注大模型的倫理和法律問題,以確保科技的進(jìn)步真正造福于人類。