大語言模型:提示工程教學課件_第1頁
大語言模型:提示工程教學課件_第2頁
大語言模型:提示工程教學課件_第3頁
大語言模型:提示工程教學課件_第4頁
大語言模型:提示工程教學課件_第5頁
已閱讀5頁,還剩25頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

第15章提示工程本章主要內(nèi)容:1.提示工程概述2.提示詞格式3.提示工程技術提示工程(PromptEngineering,PE)是一門融合了藝術和科學的學科,而且還是有關提問的藝術。提示工程是思維能力的綜合表現(xiàn),這門學科不僅需要理解技術,還需要一定的創(chuàng)造力和戰(zhàn)略思維。15.1概述13.1.1T5提示詞與提示工程提示詞是指用戶向大模型提供的輸入信息,這些輸入信息通常包含關鍵詞、問題或指令,其目的是引導大模型生成用戶期望相符的回應。大模型能夠模擬人類交流的方式與用戶進行互動,而且在互動過程中,它努力理解用戶的要求,并給出相應的回答。它的輸入的信息就是“提示詞”。在用戶與大模型互動的過程中,提示詞宛如一條紐帶連接用戶與大模型,所以一個精心設計的提示詞能夠讓大模型更準確地捕捉到用戶的需求,從而為用戶提供更有價值的回答,也就是說,用戶準確提示詞可以充分發(fā)揮大模型的潛力

例15-1,簡單提示詞。 提示詞:您好! 大模型:有什么可以幫助您的嗎?如果有任何問題或需要信息,請隨時告訴我 提示詞:什么是大模型的提示詞? 大模型:大模型的提示詞是指輸入到大型語言模型中的一段文本,它用于指導模型生成特定的輸出。提示詞是用戶與模型互動的一種方式,它可以是一個問題、一個句子、一個指令或者任何形式的前綴文本,用來激發(fā)模型生成相關的回答或文本。.1.文本生成。2.文本分類。3.信息提取。4.文本蘊涵。5.問答系統(tǒng)。6.自然語言推理。7.文本到文本的轉(zhuǎn)換。8.多語言處理。9.適應性學習。10.上下文理解。上述功能是T5模型在實際應用中能夠執(zhí)行的具體操作,而其特點(如統(tǒng)一框架、預訓練任務、模型架構等)則是支持這些功能實現(xiàn)的背后技術和設計選擇。以下是一些關于大模型提示詞的要點:(1)引導生成:提示詞可以幫助模型理解用戶想要生成的文本類型或內(nèi)容。例如,如果用戶想要生成一首詩,他們可能會提供一個與詩歌相關的提示詞。(2)上下文提供:提示詞為模型提供了必要的上下文信息,使得模型能夠更準確地理解用戶的意圖,并據(jù)此生成更加相關和準確的文本。.(3)格式和風格:提示詞可以指定文本的格式、風格或語氣。例如,用戶可以通過提示詞要求模型以正式或非正式的語氣來回答問題。(4)任務指定:在執(zhí)行特定任務時,提示詞可以明確告訴模型需要完成的任務類型,如翻譯、摘要、問答等。(5)示例提供:有時,用戶會提供一些示例作為提示詞的一部分,幫助模型更好地理解期望的輸出結構或內(nèi)容。(6)優(yōu)化輸出:通過精心設計的提示詞,用戶可以引導模型生成更加精確和高質(zhì)量的輸出。2.提示工程(1)提示工程的定義提示工程是指設計和優(yōu)化用于與大型語言模型互動的提示詞的過程。它是確保大模型能夠以期望的方式響應和生成高質(zhì)量輸出的關鍵步驟。提示工程主要包括下述幾方面: ①提示詞設計:創(chuàng)造能夠清晰傳達用戶意圖的提示詞,包括提供足夠的背景信息、指定任務類型和期望的輸出格式。 ②上下文構建:在提示詞中嵌入必要的上下文信息,幫助模型更好地理解任務的具體要求。。 ③示例利用:在提示詞中使用示例,指導模型理解用戶想要的輸出結構和風格 ④迭代優(yōu)化:根據(jù)模型的輸出反饋,不斷調(diào)整和改進提示詞,以提高輸出文本的相關性和質(zhì)量。 ⑤格式調(diào)整:調(diào)整提示詞的格式,比如使用特定的標記或關鍵詞,來指導模型遵循特定的響應模式。 ⑥性能測試:測試不同的提示詞對模型輸出的影響,以找到最佳的提示詞組合。通過提示工程,用戶可以更有效地利用大型語言模型的能力,實現(xiàn)更精確、更符合需求的文本生成和任務執(zhí)行。 提示工程是提供精心設計、優(yōu)化提示信息,來引導大模型生成高質(zhì)量、準確、有針對性的回應,其目的是優(yōu)化用戶與大模型的互動過程。在自然語言處理中,提示工程通常指的是為語言模型設計輸入提示,以便獲得相關、準確和多樣化的輸出。例如,當我門與同事交談時,語言和表達方式將直接影響對方的理解和回應。(2)提示工程的進一步解釋

提示工程是一門高度依賴經(jīng)驗的過程科學,涉及對問題表述和關鍵詞的選擇、上下文設置及限制條件等方面的細致調(diào)整,以提高大模型回應的有效性、可用性和滿足用戶需求的程度。

①提示工程涉及到如何設計有效的提示來引導大模型更好地完成特定的任務。在提示工程中,不是通過大量的數(shù)據(jù)來訓練模型,而是通過調(diào)整模型輸入的提示詞來使任務更靠近模型,而不需要調(diào)整模型參數(shù)來使模型更靠近需要完成任務。.

②提示工程依賴于高質(zhì)量的提示詞設計,而對于復雜的任務,這些提示詞可能難以創(chuàng)建。此外,提示學習可能不會對所有類型的任務都有效,特別是那些需要模型深刻理解任務上下文的任務。

③提示工程不是替代傳統(tǒng)的模型訓練方法,通常被視為一種補充方法。而一個好的提示應該能夠:清晰地傳達任務的要求,激發(fā)模型的相關知識,引導模型生成準確和有的回應。

④提示工程與提示微調(diào)含義相同,都是激發(fā)語言模型的補全能力。例如根據(jù)上半句生成下半句,或是完形填空等。(3)提示工程應用

在大模型中,提示工程有如下應用:

①文本生成:使用提示來指導模型生成特定主題或風格的文本。

②問答系統(tǒng):利用提示幫助模型理解問題的背景和所需的回答格式。

③代碼補全:提供編程語言的提示模板,幫助模型生成合適的代碼片段(4)提示工程的關鍵要素

①目標明確:清晰地定義你希望模型生成的輸出類型。

②上下文提供:給出足夠的背景信息,使模型能夠理解任務的上下文。

③示例指導:提供示例或模板,引導模型生成期望格式的輸出。

④迭代優(yōu)化:根據(jù)模型的輸出調(diào)整提示,以獲得更優(yōu)的結果。

⑤避免歧義:確保提示清晰、具體,避免可能導致誤解的多義性。

15.1.2LLM文本生成的解碼策略

大模型文本生成的解碼策略是指大模型的設置。在自然語言任務中,通常使用一個預訓練的大模型(比如GPT)來根據(jù)給定的輸入文本(比如一個開頭或一個問題)生成輸出文本(比如一個答案或一個結尾)。為了生成輸出文本,需要讓模型逐個預測每個token,直到達到一個終止條件(如一個標點符號或一個最大長度)。在每一步,模型會給出一個概率分布,表示它對下一個單詞的預測。 在大模型中,溫度、top-k采樣和top-p采樣等為設置參數(shù),通過優(yōu)化設置,可以進一步優(yōu)化生成文本的質(zhì)量和多樣性,這就是大模型文本生成的解碼策略。1.選擇下一個單詞的基本方法 從一個概率分布中選擇下一個單詞的基本方法如下。 (1)貪心解碼:直接選擇概率最高的單詞。這種方法簡單高效,但是可能會導致生成的文本過于單調(diào)和重復。 (2)隨機采樣:按照概率分布隨機選擇一個單詞。這種方法可以增加生成的多樣性,但是可能會導致生成的文本不連貫和無意義。 (3)束搜索:是一種啟發(fā)式圖搜索算法,常用于自然語言處理中的機器翻譯和文本生成任務。它通過維護一個候選解的列表(即“束”),在每一步選擇最有可能的候選解進行擴展。這種方法在保持解空間多樣性的同時,減少了搜索空間的大小,從而提高了搜索的效率。束搜索的基本步驟如下:

.①初始化:選擇初始狀態(tài)作為當前狀態(tài),并計算其可能的后續(xù)狀態(tài)(如翻譯中的第一個詞的所有可能翻譯)。 ②選擇:從當前狀態(tài)的所有可能后續(xù)狀態(tài)中,選擇最有可能的前k個狀態(tài)(k為beamsize),作為新的當前狀態(tài)集。 ③擴展:對于每一個新的當前狀態(tài),計算其所有可能的后續(xù)狀態(tài)。 ④重復:重復步驟2和步驟3,直到達到終止狀態(tài)(如生成句子的結束符)。 ⑤輸出:從終止狀態(tài)中,選擇最有可能的狀態(tài)作為輸出結果。 束搜索的一個關鍵參數(shù)是beamsize(k),它決定了算法在每一步考慮的候選解的數(shù)量。較大的beamsize可以增加找到最優(yōu)解的機會,但同時也會增加計算成本。因此,在實際應用中,需要根據(jù)具體任務和計算資源來選擇合適的beamsize。 需要注意的是,束搜索并不保證找到最優(yōu)解,但它通常能夠找到足夠好的解,并在效率和效果之間取得平衡。 .2.Top-k采樣

Top-k采樣是對前面貪心策略的優(yōu)化,它從排名前k的token中進行抽樣,允許其他分數(shù)或概率較高的token也有機會被選中。在很多情況下,這種抽樣帶來的隨機性有助于提高生成質(zhì)量。

Top-k采樣是一種在自然語言處理中用于文本生成的采樣技術。top-k采樣的思路是,在每一步,只從概率最高的k個單詞中進行隨機采樣。只考慮概率最高的k個詞,而不考慮其他低概率的詞,然后從這k個詞匯中隨機選擇下一個詞。這種方法既可以減少低概率詞的干擾,同時保持一定程度的隨機性,使得生成的文本既有一定的多樣性,又不會過于偏離模型的預測。 (1)Top-k采樣的步驟 ①計算詞的概率分布:對于給定的輸入,模型計算輸出詞匯的概率分布。 ②選擇概率最高的k個詞:即從概率分布中選出概率最高的k個詞。 ③對這k個詞進行歸一化:將這k個詞的概率進行歸一化,使得它們的總和為1。 ④從這k個詞中隨機采樣:根據(jù)歸一化后的概率分布,從這k個詞中隨機選擇下一個詞作為輸出。

Top-k采樣的優(yōu)點是簡單易實現(xiàn),并且可以有效地控制生成文本的多樣性。與貪婪解碼(總是選擇概率最高的詞匯)相比,Top-k采樣能夠避免模型重復使用相同的詞,從而生成更加豐富的文本。 在實際應用中,k的值可以根據(jù)需要生成的文本的多樣性和質(zhì)量來進行調(diào)整。通常,k的值設置在1到100之間。如果需要生成更加多樣化和創(chuàng)意的文本,可以提高k的值;如果需要生成更加準確和保守的文本,可以降低k的值。需要注意的是,k的值設置得過低可能會導致生成的文本缺乏多樣性,而設置得過高可能會導致生成一些不太可能的詞。因此,選擇合適的k值是很重要的。.(2)top-k采樣優(yōu)點 ①它可以根據(jù)不同的輸入文本動態(tài)調(diào)整候選單詞的數(shù)量,而不是固定為k個。這是因為不同的輸入文本可能會導致不同的概率分布,有些分布可能比較平坦,有些分布可能比較尖銳。如果分布比較平坦,那么前k個單詞可能都有相近的概率,那么就可以從中進行隨機采樣;如果分布比較尖銳,那么前k個單詞可能會占據(jù)絕大部分概率,那么就可以近似地進行貪心解碼。 ②可以通過調(diào)整k的大小來控制生成的多樣性和質(zhì)量。一般來說,k越大,生成的多樣性越高,但是生成的質(zhì)量越低;k越小,生成的質(zhì)量越高,但是生成的多樣性越低。因此,可以根據(jù)不同的任務和場景來選擇合適的k值。 ③它限制了低概率詞的選取,從而減少了生成不相關或不合邏輯文本的風險。同時,由于它考慮了多個高概率詞,因此比Top-1采樣具有更高的多樣性。然而,Top-k采樣會忽略一些概率雖然較低但有潛在重要性的詞,因此k值需要根據(jù)具體任務進行調(diào)整。 ④可以與其他解碼策略結合使用,例如溫度調(diào)節(jié)、重復懲罰、長度懲罰等,來進一步優(yōu)化生成的效果。(3)top-k的缺點 ①可能會導致生成的文本不符合常識或邏輯。這是因為top-k采樣只考慮了單詞的概率,而沒有考慮單詞之間的語義和語法關系。例如,如果輸入文本是“我喜歡吃”,那么即使餃子的概率最高,也不一定是最合適的選擇,因為可能用戶更喜歡吃其他食物。 ②可能會導致生成的文本過于簡單或無聊。這是因為top-k采樣只考慮了概率最高的k個單詞,而沒有考慮其他低概率但有意義或有創(chuàng)意的單詞。例如,如果輸入文本是“我喜歡吃”,那么即使蘋果、餃子和火鍋都是合理的選擇,也不一定是最有趣或最驚喜的選擇,因為可能用戶更喜歡吃一些特別或新奇的食物。 因此,通常會考慮top-k和其它策略結合,比如top-p。.3.Top-p采樣

Top-p是一種在自然語言處理中用于文本生成的采樣技術。它允許模型在生成文本時考慮概率最高的詞匯,但同時保持一定程度的隨機性。top-p采樣的思路是,在每一步,只從累積概率超過某個閾值p的最小單詞集合中進行隨機采樣,而不考慮其他低概率的單詞。這種方法也被稱為核采樣,因為它只關注概率分布的核心部分,而忽略了尾部部分。例如,如果p=0.9,那么只從累積概率達到0.9的最小單詞集合中選擇一個單詞,而不考慮其它累積概率小于0.9的單詞。這樣可以避免采樣到一些不合適或不相關的單詞,同時也可以保留一些有趣或有創(chuàng)意的單詞。

Top-p采樣的主要思想是選擇一個概率閾值(p),然后從概率分布中累計概率,直到累計概率超過這個閾值。之后,只從這些累計概率超過閾值的詞匯中隨機選擇下一個詞匯。 具體來說,Top-p采樣的步驟如下: ①計算詞匯的概率分布:對于給定的輸入,模型計算輸出詞匯的概率分布。 ②對詞概率進行排序:將詞匯按照其概率從高到低進行排序。 ③累計概率:從概率最高的詞開始,累計概率,直到累計概率超過給定的閾值p為止。 ④從累計概率超過p的詞中隨機采樣:從累計概率超過p的詞中隨機選擇下一個詞作為輸出。.4.溫度采樣 溫度采樣(TemperatureSampling)是一個調(diào)整模型輸出概率分布的技術。這里的“溫度”是一個超參數(shù),用于控制模型輸出的多樣性或隨機性。(1)溫度的概念·高溫:當溫度值較高時,模型的輸出概率分布會更加平滑,這意味著模型更有可能產(chǎn)生多樣化和隨機的結果。在文本生成中,這可能導致更多的創(chuàng)造性文本,但也可能包含更多的錯誤?!さ蜏兀寒敎囟戎递^低時,模型的輸出概率分布會更加尖銳,模型傾向于選擇概率最高的輸出,這會導致模型輸出更加確定和保守。在文本生成中,這可能導致文本更加一致和可預測,但可能缺乏新穎性。(2)溫度采樣的應用①文本生成:在生成文本時,溫度可以用來控制生成句子的多樣性和隨機性。例如,在生成詩歌或故事時,一個較高的溫度可能會產(chǎn)生更加獨特和有趣的文本。②分類問題:在分類問題中,特別是在模型輸出不確定時,調(diào)整溫度可以幫助控制模型對預測的信心。(3)如何進行溫度采樣①計算Logits:首先,模型會根據(jù)輸入數(shù)據(jù)計算出一個logits向量。②應用Softmax函數(shù):然后,通常會對logits應用softmax函數(shù)來得到一個概率分布。③調(diào)整概率分布:在應用softmax之前,可以將logits除以溫度T(一個正數(shù)),這樣就可以控制概率分布的形狀。④采樣:最后,根據(jù)調(diào)整后的概率分布進行采樣,以選擇模型的輸出。.5.聯(lián)合采樣 聯(lián)合采樣通常是將top-k、top-p、Temperature聯(lián)合起來使用。使用的先后順序是:top-k→top-p→Temperature。 例如,首先我們設置top-k=3,表示保留概率最高的3個token。這樣就會保留A、B、C這3個token,其概率是:A:0.664B:0.199C象:0.105

接下來,可以使用top-p的方法,保留概率的累計和達到0.8的單詞,也就是選取女孩和鞋子這兩個token。接著我們使用Temperature=0.7進行歸一化,變成:A:0.660B:0.340

最后,可以從上述分布中進行隨機采樣,選取一個單詞作為最終的生成結果。15.2提示詞格式

15.2.1提示詞基本格式 為了確保大模型能夠理解任務并生成適當?shù)捻憫?,通常需要結構化的提示詞來引導它們生成準確和相關的輸出。提示詞的基本格式如下:

[指令/任務]:[具體任務描述][上下文/背景信息]:(可選)[提供相關的背景信息或上下文][輸入數(shù)據(jù)/信息]:(可選)[提供輸入數(shù)據(jù)或附加信息][輸出要求]:(可選)[指定輸出格式、長度、風格等][額外指令]:(可選)[任何額外的指導或要求]

在提示詞基本格式中,每個部分的作用如下:·指令/任務:明確告訴模型需要執(zhí)行的任務類型,如總結、翻譯、生成文本、回答問題等·上下文/背景信息:提供任務的背景信息,幫助模型更好地理解任務和上下文?!ぽ斎霐?shù)據(jù)/信息:提供執(zhí)行任務所需的數(shù)據(jù)或信息,如文章、數(shù)據(jù)集、問題等。·輸出要求:指定期望的輸出特性,如文本長度、格式、風格、語言等?!ゎ~外指令:提供任何其他特定指導或要求,以確保模型的輸出符合用戶的期望根據(jù)不同的模型和任務,這些部分的詳細程度和內(nèi)容可以有所不同。在某些情況下,某些部分可能是不必要的,例如,如果任務非常簡單,可能不需要背景信息或額外指令。重要的是要確保提示詞清晰、具體,并且適合模型的能力和任務的復雜性。.例如,文本生成提示詞: 任務類型:撰寫一篇關于人工智能未來發(fā)展的博客文章 上下文信息:考慮當前的技術趨勢和社會影響 輸出要求:文章長度在800至1000字之間,采用通俗科普風格 例如,問答提示詞: 輸入數(shù)據(jù):量子計算機是如何工作的? 輸出要求:提供一個簡單易懂的解釋,不超過200字 例如:文本分析提示詞。 在基本提示詞格式時,需要確保提供足夠的信息和上下文,以便大模型能夠理解任務的要求并生成高質(zhì)量的輸出。根據(jù)模型的特定能力和特點,提示詞格式可以適當調(diào)整??梢詫⑻崾驹~格式細分為指令型、問題型和描述型三種格式。 15.2.2指令型提示詞格式指令型提示詞的格式通常遵循以下結構,以確保模型能夠清晰地理解任務要求和執(zhí)行細節(jié):

[指令類型]:[具體指令][參數(shù)/選項]{細節(jié)描述/額外要求}

例如:

·文本生成提示詞: 生成文本:請創(chuàng)建一個關于未來城市的科幻故事,確保包含高科技元素和環(huán)境保護的主題。

·圖像識別提示詞: 圖像識別:識別圖片中的動物種類,輸出最有可能的五個分類及其概率。15.2.3問題型提示詞格式問題型提示詞的格式通常用于提出問題或查詢,以便模型能夠提供相關的答案或信息。以下是一個通用的問題型提示詞格式

[問題類型]:[具體問題][可選的上下文或細節(jié)]

例如:

1.事實性問題 事實性查詢:什么是黑洞?請?zhí)峁┒x和基本特征。

2.解釋性問題 解釋性查詢:請解釋相對論的基本原理及其對現(xiàn)代物理學的影響。

3.比較性問題 比較性查詢:請比較太陽能和風能作為可再生能源的優(yōu)缺點。

5.預測性問題 預測性查詢:根據(jù)當前的氣候變化趨勢,預測未來30年地球氣候的可能變化。 在使用這些格式化的提示詞時,確保問題清晰、具體,并且提供了足夠的上下文,以便模型能夠提供準確和有針對性的答案。15.2.4描述型提示詞格式為了獲得更準確、更符合需求的結果,可以遵循描述型提示詞的格式:任務指令:明確告訴模型希望它執(zhí)行的任務類型,如“描述”、“解釋”、“總結”、“翻譯”、“生成”等。主題內(nèi)容:具體說明希望模型討論或描述的主題,這可以是具體的名詞、概念或者話題。詳細要求:提供更詳細的信息,包括希望模型在回答時考慮的特定方面、風格、格式、長度等。特殊指令:如果有特定的要求,比如使用某種數(shù)據(jù)、避免某些詞匯、遵循特定的觀點等,在此處說明。結束信號:有時候可以加上一個結束的標識,如“請回答:”,以明確提示模型輸出開始的位置。 這樣的格式有助于模型更準確地理解用戶的需求,從而提供更恰當和有用的回答 例如,一個描述型提示詞的示例格式。

[任務指令]請解釋

[主題內(nèi)容]大語言模型的基本內(nèi)容,

[詳細要求]請分別對大語言模型的每個部分進行詳細說明,并舉例說明其應用,

[特殊指令]請使用易于理解的表述,不要涉及復雜的數(shù)學公式,

[結束信號]請回答: 這樣的格式有助于模型更準確地理解用戶的需求,從而提供更恰當和有用的回答。15.2.5提示增強格式可以通過一些策略與技巧來增強提示。

1.清晰的說明 是實現(xiàn)該策略的主要技巧如下。 (1)使用分隔符 分割符:單引號,三引號*”“”“”"*,大括號{},XML標記,節(jié)標題等,使用分隔符是為了讓大模型更好的理解用戶的命令,消除歧義。這個技巧在提示詞中會大量用到,很重要。 在使用大模型時,通常建議使用特定的分隔符來分隔不同的提示詞,以便模型更好地理解和學習每個提示詞的含義。在具體應用中,分隔符可以是各種符號,如逗號、分號和空格等。具體使用何種分隔符,取決于模型的要求和實際任務的場景。如果正在構建一個涉及多個關鍵詞的任務,可以使用逗號來分隔這些關鍵詞。如果任務需要更復雜的結構化數(shù)據(jù),可能需要使用其他分隔符,使用分號來分隔不同的字段:“字段1:值1;字段2:值2;字段3:值3”

使用大模型提示詞格式的分隔符格式:翻譯這段文本|||[源語言]|||[目標語言]

翻譯:人工智能是計算機科學的前沿。|||中文|||英語生成一個產(chǎn)品描述|||[產(chǎn)品名稱]|||[產(chǎn)品功能]

.(2)提供示例 對于大模型提示,有時候用戶自己表述的輸出格式可能不如一個示例的效果來得更直觀、清晰。這是因為示例可以提供一個具體的場景,讓人們更直觀地理解大模型提示的使用方法和效果。例如: 用戶提示:利用列表的格式示例描述人工智能博弈的作用。 大模型輸出結果:選擇哪種分隔符應根據(jù)具體需求和模型的預期使用方式來定。在實際操作中,可能需要通過實驗和調(diào)整來找到最適合任務的符號。----------------------------------------------------------人工智能博弈的作用包括:1.游戲策略優(yōu)化:AI可以分析游戲數(shù)據(jù),為玩家提供最佳策略,提高游戲勝率。2.對手模擬:AI可以模擬真實對手的行為,為玩家提供練習和提高技能的機會。3.游戲自動化:AI可以自動執(zhí)行游戲中的某些任務,如自動移動或攻擊,減輕玩家的負擔。4.游戲平衡:AI可以幫助開發(fā)者調(diào)整游戲規(guī)則,確保游戲的公平性和挑戰(zhàn)性。5.數(shù)據(jù)分析:AI可以分析玩家的行為和游戲數(shù)據(jù),幫助開發(fā)者改進游戲設計,優(yōu)化游戲體驗。-------------------------------------------------------------------------------.(3)固定長度 提示詞可以根據(jù)需要提示模型回答內(nèi)容長度,如果需要模型回答內(nèi)容簡潔,可以固定長度短一點,例如用100字總結這段話。如果需要模型回答內(nèi)容很多,可以固定長度長一點,例如用1000字寫一篇文章等。 (4)參考文本 可以讓模型只參考用戶給定的文本進行回答,不用其自身的知識。 使用場景:客服問題,參考文章回答問題,隨機抽題或者補充一些大模型可能不知道的知識。 示例:扮演面試官隨機抽題 提示詞:你是一名精算的面試官,我今天參加你的面試,你準備了一些題目,請你從下面的題目中隨機抽取一道給我,當我回答“下一個問題”時候,你需要再抽一道題給我。具體要求:1.你必須從下面的題目中抽取題目,不可以自己生成;2.如果題目都已經(jīng)抽完了,你需要告訴我面試已結束;3.你不需要對題目做任何解釋,只需要給出原題就行。題目:“1.20+30=?2.30+40=?3.40+50=?4.50+60=?”

.大模型與用戶輸出結果:------------------------------------------------------------------------------

大模型:好的, 用戶:請回答以下題目

1.20+30=? 用戶:50

大模型:下一個問題:

2.30+40=? 用戶:70

大模型:下一個問題:

2.40+50=? 用戶:90

大模型:下一個問題:

4.50+60=? 用戶:110

大模型:面試已結束。感謝你的回答。-----------------------------------------------------------------------------------------.2.將復雜任務拆分為簡單的子任務 (1)任務分類拆分 按步驟拆分上述任務是將一個復雜問題拆分成多個小問題,同時讓模型一個個解決,給他思考的時間,它的輸出結果會更加好。例如: 提示詞: 你現(xiàn)在是一名時間序列數(shù)據(jù)分析師,我正在學習分析時間序列數(shù)據(jù)的趨勢,你需要輔助我學習,要求如下:1.詳細介紹一個時間序列數(shù)據(jù)趨勢這個概念;2.有哪些方法可以分析趨勢;讓我們一步一步思考。 大模型輸出: 1.時間序列數(shù)據(jù)趨勢的概念:時間序列數(shù)據(jù)是按照時間順序收集的數(shù)據(jù),可以用于研究某個或某些變量隨時間變化的模式。這些數(shù)據(jù)可能是在固定頻率(每日、每月或每年)或不規(guī)則間隔收集的。在時間序列數(shù)據(jù)中,“趨勢”是一個關鍵概念。趨勢描述的是數(shù)據(jù)隨時間變化的長期運動或方向。比如,公司的年銷售額可能顯示出上升趨勢,意味著銷售額隨著時間的推移在增加?;蛘?,一種疾病的發(fā)病率可能顯示出下降趨勢,表明該疾病的發(fā)病率隨著時間的推移在減少。這些都是趨勢的例子。

2.分析時間序列數(shù)據(jù)趨勢的方法: (1)移動平均法(MovingAverages):移動平均是一種在時間序列數(shù)據(jù)中平滑數(shù)據(jù)并識別隱藏的趨勢和模式的方法。 (2)指數(shù)平滑法(ExponentialSmoothing):指數(shù)平滑是一種用于時間序列數(shù)據(jù)的平滑方法,特別適用于對未來點進行預測。 (3)自回歸移動平均模型(ARIMA):ARIMA模型是一種可以捕獲一系列不同時間序列數(shù)據(jù)的模式的統(tǒng)計模型。 .3.給大模型思考機會與時間 (1)從第一性原理出發(fā),指示模型在匆忙得出結論之前制定自己的解決方案 第一性原理(FirstPrinciplesThinking)是一種解決問題和創(chuàng)新的方法,它要求我們回到最基本的事實和不可爭議的真理,然后從這些最基礎的概念出發(fā),重新構建復雜的思想和問題。第一性原理思維與傳統(tǒng)的歸納或演繹思維不同,這種方法鼓勵我們忽略傳統(tǒng)的假設和現(xiàn)有的認知,而是去尋找最根本的因果關系和邏輯。第一性原理思維被廣泛應用于科學研究、工程設計、商業(yè)戰(zhàn)略、教育等多個領域。它幫助人們以更加系統(tǒng)和科學的方式來理解和解決問題,有助于培養(yǎng)創(chuàng)新能力和批判性思維。 這種思維方式強調(diào)了以下幾個步驟: ①定義問題:明確你要解決的問題是什么,將其分解為更小的部分。 ②尋找基本事實:確定問題中最基礎的、不可爭議的事實和原理。 ③邏輯推理:從這些基本事實出發(fā),使用邏輯推理來構建對問題的理解。 ④創(chuàng)新構建:鼓勵創(chuàng)新思維,但所有創(chuàng)新都必須基于第一性原理。 ⑤解決方案:基于以上步驟,形成解決方案或新觀點。 例如我們在修改代碼時,模型會分析你的代碼的錯誤,然后在你的代碼繼續(xù)上進行修改,但如果你的代碼邏輯就不對,錯誤就很多,GPT就會一直幫你縫縫補補。如果讓它先自己給出解題方法,然后跟你的方法對比找出問題,可能會看到意向不到的效果。

(2)使用內(nèi)心獨白或一系列查詢來隱藏模型的推理過程 內(nèi)心獨白是一種可以用來緩解這種情況的策略。內(nèi)心獨白的想法是指示模型將輸出中要對用戶隱藏的部分放入結構化格式中,以便于解析它們。然后,在向用戶呈現(xiàn)輸出之前,將解析輸出,并且僅使部分輸出可見。

.4.分段分次輸入 無論是GPT3還是GPT4,每次輸入的長度都有限制。 (1)分段輸入 如果文本過長,則無法一次性輸入,需要將一個長文本分段輸入。 提示詞: 你現(xiàn)在是我的文章助手,你具備深度概括和總結一篇長文章的能力,我會將一篇長文章分成3段輸入給你,你收到段落后,只需要回答已學習,當我發(fā)送指令{請總結}時,你再總結這篇文章,在總結前你需要深入理解這篇文章,然后通俗易懂,簡潔地總結文章,字數(shù)要求200字。如果你明白了,請復述指令。

(2)分次輸入 如果我們想要輸入多個短文本給GPT,但合起來可能就超出了輸入長度限制,這就需要分次輸入。 提示詞: 你現(xiàn)在是我的文章助手,你具備深度概括和總結多篇文章的能力,我會將3篇文章分三次輸入給你,你收到一篇文章后,只需要回答已學習,當我發(fā)送指令{請總結}時,你再總結這篇文章,在總結前你需要深入理解這3篇文章,然后通俗易懂,簡潔地總結這3篇文章,字數(shù)要求200字。如果你明白了,請復述指令。 通過這條提示詞指令只是打破了GPT對一條指令的輸入長度的限制,但如果超過了GPT的上下文記憶長度,GPT可能就記不得前面的內(nèi)容了。這一點需要注意。所以這個方法還是有限制的。

15.2.6不同任務的提示詞經(jīng)常使用的任務是:文本摘要、問答、文本分類、角色扮演、代碼生成和推理等。

1.文本摘要 輸入內(nèi)容:文本

…………

提示詞指令:用一句話解釋上述內(nèi)容 輸出結果:

…………

例如: 溫度可以控制大模型輸出內(nèi)容的穩(wěn)定性,因為LLM的輸出是通過概率來排序。如果對同一個問題需要每次輸出完全一致的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論