往期相關(guān)文章提高亞馬遜運營效率的幾個ChatGPT指令剛開始使用gpt的時候,很多答案都不盡如意終于,通過不斷地給gpt投喂數(shù)據(jù)和提問,慢慢優(yōu)化了自己提問的技巧總結(jié)了自己提問的問題,提煉成一個模型3W

提高亞馬遜運營效率的幾個ChatGPT指令
剛開始使用gpt的時候,很多答案都不盡如意
終于,通過不斷地給gpt投喂數(shù)據(jù)和提問,慢慢優(yōu)化了自己提問的技巧
總結(jié)了自己提問的問題,提煉成一個模型
3W1N提問模型
即 Who+Why+What+Note
Who=在這個對話里你是什么角色或者希望gpt以什么身份給你輸出答案
Why=你做這件事的背景,原因是什么,這其實是初步向gpt限定它輸出數(shù)據(jù)的方向和范圍,不要跑偏
What=你要做的事情是什么,讓gpt知道它要輸出什么內(nèi)容,用什么方式輸出
Note=做這件事有哪些注意事項和限定條件(包括輸出格式),進一步限定gpt的輸出內(nèi)容范圍,避免輸出內(nèi)容邏輯混亂
自由提問模型-示例

3W1N提問模型-示例

通過對比兩種提問prompt,后面一種輸出的答案更接近可以直接拿來用的亞馬遜鏈接標題
對prompt拆解如下:

PS:3W1N提問模型不能說百分之百讓gpt一次性輸出滿意的答案,但是這個提問模型可以讓gpt更快速的識別你的問題并提供更準確的答案
特別是當想問gpt問題,卻不知道提問方向時,直接套用提問模型,可以快速梳理問題要點
在提問模型基礎(chǔ)上確認和糾錯
當GPT輸出的某個內(nèi)容不符合預(yù)期時,這個時候要明確向它指出錯誤的具體地方,盡量不要全部復(fù)制前一個prompt,避免出現(xiàn)邏輯更亂的答案
對GPT的數(shù)據(jù)投喂讓其輸出內(nèi)容標準化
在得到一個符合要求的答案之后,在下次提問之前給他發(fā)一句“正確”的prompt,讓它記住之前的訓練模型,在后面輸出的內(nèi)容用同樣的方式輸出
沒有數(shù)據(jù)格式投喂輸出的內(nèi)容

有數(shù)據(jù)格式投喂輸出的內(nèi)容

對比上面兩個,下面的輸出內(nèi)容更簡潔,產(chǎn)品售后信息更一目了然
確認格式之后標準化的輸出
