2025大語言模型(LLM)上手指南_第1頁
2025大語言模型(LLM)上手指南_第2頁
2025大語言模型(LLM)上手指南_第3頁
2025大語言模型(LLM)上手指南_第4頁
2025大語言模型(LLM)上手指南_第5頁
已閱讀5頁,還剩17頁未讀 繼續(xù)免費閱讀

付費下載

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

01

了解大語言模型.................................................................................................

02?

1.1

LLM,大在何處.......................................................................................................................................................................

02?

1.2

LLM

的發(fā)展歷程.....................................................................................................................................................................02?

1.3

LLM

的核心應用場景.............................................................................................................................................................

04?

1.4多模態(tài)LLM.................................................................................................................................................................................................0502

訓練大語言模型.................................................................................................

07?2.1Transformer網絡架構...........................................................................................................................................................

07?2.2預訓練和微調...........................................................................................................................................................................08?2.3籌備訓練環(huán)境..........................................................................................................................................................................0803

了解

GPT..........................................................................................................................?3.1GPT

的優(yōu)化..............................................................................................................................................................................10?3.2GPT

的主要應用場景.............................................................................................................................................................

1204

簡單易上手的Copilot...........................................................................................?4.1生產力輔助...............................................................................................................................................................................14?4.2創(chuàng)意工具...................................................................................................................................................................................

15?4.3開發(fā)輔助...................................................................................................................................................................................1605

總結

............................................................................................................................目

錄TABLEOFCONTENTS1018141

LLM的發(fā)展歷程雖然近些年才逐漸興起,但LLM并非新技術。早在20世紀90年代,就已經出現(xiàn)了以信息論和概率論為基礎的統(tǒng)計語言模型。隨著深度學習技術的誕生和崛起,以及計算機硬件算力飛速提升,這種模型變得愈加復雜,進一步催生出基于循環(huán)神經網絡(RNN)和長短期記憶網絡(LSTM)的自然語言處理技術。2018年,基于Transformer的雙向編碼器表示技術(BERT)誕生,這標志著預訓練語言模型時代正式到來。通過用大量文本進行預訓練,然后圍繞特定任務進行微調,

BERT顯著提高了多種自然語言處理(NLP)任務的性能。隨后,OpenAI發(fā)布的GPT(Generative

Pre-trained

Transformer,生成式預訓練Transformer)系列模型及廣為人知的ChatGPT,進一步將生成式AI技術帶到了每個人面前。擅長處理和生成自然語言類內容的大語言模型(Large

Language

Model

,LLM)已成為人工智能(AI)技術領域的一個重要發(fā)展方向。LLM

是一種基于深度學習技術的

AI模型,可通過分析大量文本數(shù)據來學習語言的結構與規(guī)律,從而執(zhí)行多種任務,如文本生成、語言翻譯、情感分析等,目前已經在越來越多的領域實現(xiàn)了極為廣泛的應用。

LLM,大在何處大語言模型的“大”通常主要體現(xiàn)在三方面: 參數(shù)數(shù)量:參數(shù)是指模型內部的變量,決定了模型的復雜度和表示能力。參數(shù)多通常意味著模型能捕捉更復雜的

模式和關系。。

訓練數(shù)據:LLM通常需要通過大規(guī)模文本數(shù)據訓練,這些數(shù)據包含豐富的語言信息,可幫助模型學習更準確的語

言表示。

計算資源:訓練LLM通常需要大量算力,包括高性能GPU或TPU,以及分布式環(huán)境。了解大語言模型201生成式AI

技術是深度學習的直子集,可通過學習大量訓練數(shù)據,理解其內在模式和規(guī)律,然后根據這些模式和規(guī)律生成新的內容。生成式

AI

技術的應用范圍非常廣泛,

包括圖像生成、音樂創(chuàng)作、文本生成等。02

總的來說,可以認為

NLP是一個廣泛的研究領域,生成式AI技術是一類技術,而GPT則是生成式AI技術在

NLP領域的一種具體應用。摘自《大語言模型原理、訓練及應用(基于GPT)》,機械工業(yè)出版社出版NLP

是AI

領域的一門學科,主要目標是讓計算機理解和生成人類語言。NLP涵蓋了從語法解析和詞義理解,到情感分析和文本生成等一系列復雜任務。NLP

的研究和應用催生了機器翻譯、語音識別、情感分析等各種實用的系統(tǒng)和應用。G0PT則3是生成式AI技術的一種,它是目前處理

NLP問題最先進的技術之一。盡管GPT最初是為處理NLP問題開發(fā)的,但其實也可用于生成圖像、視頻等內容。

生成式

AI技術、NLP、GPT,這三者有何關系?304

語義搜索通過用海量文本數(shù)據進行預訓練,讓LLM

模型學習語言的復雜結構和豐富的語義信息,從而捕捉到詞匯的多種

含義、上下文的細微差別以及語言的隱含關系。因為可

以理解用戶查詢的深層含義,因此相比傳統(tǒng)的基于關鍵

詞的搜索,LLM

的語義搜索能提供更精準,相關性更高

的搜索結果。03

代碼生成基于對語言結構和編程語言的理解能力,通過訓練學習大量自然語言文本和源代碼數(shù)據,可以讓LLM

掌握編程

語法規(guī)則、代碼模式以及實現(xiàn)不同功能的典型方法,從

而生成代碼片段,甚至幫助軟件開發(fā)人員完成更復雜的

編程任務。01

內容創(chuàng)作在這些任務中,LLM通常要根據輸入(如關鍵詞、摘要、提示等)生成一段符合要求的文本。這個過程需要處理

很多復雜問題,如信息組織、語句表達、邏輯推理等。

通過訓練,LLM

模型可以學習這些問題的規(guī)則和模式,

從而生成高質量文本。

LLM的核心應用場景作為AI

技術的重要分支,LLM

的應用極為廣泛,可覆蓋幾乎所有語言處理任務,目前該技術已經在多個應用場景發(fā)揮著至關重要的作用。一般來說,LLM在下列四大核心能力方面的表現(xiàn)尤為突出:02

摘要生成使用

LLM

從較長的文本中提取關鍵信息并生成簡潔摘要,主要目的是壓縮信息,幫助用戶快速了解文本主旨,節(jié)約閱讀和理解原始文本所需的時間。Q%4<

>@?

多模態(tài)LLM隨著LLM

不斷發(fā)展,它的能力已經遠遠超越了傳統(tǒng)NLP

領域,拓展到多模態(tài)場景的應用方面。多模態(tài)是指結合了文本、圖像、

聲音等多種數(shù)據類型的處理能力,這種跨越使得LLM不僅能理解和生成文本,還能與圖像、視頻等非文本數(shù)據進行交互。不同感官形式的技術進步為人機交互和信息理解開辟了新的維度。以CPT-4o為代表的LLM

模型則在圖像和視頻內容的理解方面實現(xiàn)了巨大飛躍。GPT-4o的核心能力在于跨模態(tài)理解:即不僅能處理文本數(shù)據,還能解讀視覺內容。這意味著GPT-4o可以接收圖像或視頻作為輸入,并生成詳細的描述,識別場景中的對象、動作、情感以及它們之間的相互作用。例如,對于街頭監(jiān)控視頻,CPT-4o能描述人物行為,識別可能的安全事件,甚至預測接下來可能發(fā)生的情況。以DALL·E為代表的文生圖是一種創(chuàng)新的應用。在這種技術幫助下,用戶只需提

供一段描述性文本,就能讓LLM

結合視

覺生成模型創(chuàng)造出與描述文本相匹配的

圖像。這種能力在藝術創(chuàng)作、產品設計、

教育等領域具有巨大潛力。此類技術的

出現(xiàn),不僅證明了

LLM

在文本處理之外

的潛力,也為AI

技術創(chuàng)意工作提供了一

個令人興奮的范例。

圖片與視頻理解

文生圖5語音轉文字是LLM的一個重要分支,它使得機器能將人類語音信息轉換成書面文本。例如Whisper

就是一個典型的例子,它可以利用深度學習和LLM模型實現(xiàn)高效準確的語音識別,并能充分考慮不同口音、方言以及語言之間的差異,從而在多

樣化的語音環(huán)境中保持高水平的識別準確性。這樣的技術可應用于多種場景,如會議記錄、實時字幕生成、語音指令識別等,這些應用不僅有助于大幅提高工作效率,也能為聽障人士提供便利。以Sora為代表的視頻生成模型能根據文本指令創(chuàng)造出真實且富有想象力的場景視頻,此類模型還能生成復雜的場景,例如多角色、特定類型的運動,以及與主題和背景相關的精確細節(jié)等。這就意味著,此類模型不但需要能理解用戶在提示中要求的內容,還要能理解這些內容在物理世界中的存在方式。

語音轉文字

視頻生成6簡單來說,Transformer

主要分為以下幾Probabilities個模塊(左圖中由下往上看):SoftmaxEmbedding:嵌入層,負責輸入語(Token)的向量化和位置編碼,其實不屬于Transformer網絡的范疇。FeedMulti-Head-Attention:多頭注意力層,負責完成Token之間注意力關系的建立。Add

&

NormAdd

&

NormMulti-HeadAdd&

Norm:殘差網絡鏈接和歸一化,負責傳遞殘差鏈接,傳遞的上一層原始數(shù)據到下一層參與計算和負責歸一化。MaskedFeed

Forward:前饋層,又叫

MLP多層線性Attention層,負責隱空間的計算處理。Liner

(

)

Softmax

層:與

Embedding

樣,

于OutputTransformer的范圍,但也會作為節(jié)點一起參與數(shù)據處理。Output這些模塊以類似搭積木的方式組合形成了多層Transformer

網絡。來源:Attention

IsAllYou

Need,https://a/html/1706.03762v7早期的NLP任務大多采用RNN(循環(huán)神經網絡)來處理,尤其是翻譯和分類任務。RNN在這些應用中實現(xiàn)了較好的效果,但其弊端在于無法把模型做得很大,這導致模型的知識累積和推理能力都受到限制。為解決這些問題,Transformer網絡應運而生,它天生支持大參數(shù)量,因此可以學到更多知識,同時也能很好地解決RNN訓練效率低下的問題。本節(jié)內容部分摘自《大語言模型原理、訓練及應用(基于GPT)》,機械工業(yè)出版社出版

Transformer網絡架構最基礎的Transformer架構如下圖所示。整個架構分為兩大塊:左半部分的

Encoder(編碼器)和右半部分的Decoder(解

碼器)。訓練大語言模型

Add

&

NormMulti-Head

AttentionTransformer模型架構InputEmbeddingPositional

EncodingPositional

EncodingFeedForward(shifted

right)EmbeddingAdd

&

NormAdd

&

NormMulti-HeadAttentionOutputForwardInputsLinearNxNx7而是應該從預訓練開始對模型進行訓練。

籌備訓練環(huán)境

硬件驗證在構建LLM

模型的基礎架構環(huán)境時,務必要確保所有硬件組件(如網卡和GPU)能夠正常工作。這些組件的性能會直接影響模型訓練和推理效率。對于網絡通信性能的驗證,可以使用

perftest。這是一套網絡性能測試工具,可以對網絡設備進行一系列測試,以確保網絡傳輸?shù)乃俣群头€(wěn)定性。如果測試結果顯示網卡性能達到預期標準,即可確認網絡環(huán)境能支持大規(guī)模數(shù)據傳輸需求。對于GPU驗證,可利用

NVIDIA

Collective

Communications

Library(NCCL)進行。

NCCL提供了一系列通信原語,專為多GPU

和多節(jié)點環(huán)境下的并行計算設計。NCCL

測試可模擬訓練過程中GPU

之間的通信,以此檢測GPU

的并行處理能力和通信效率。當這兩個工具的測試結果均顯示硬件性能達到預期,才能確信基礎架構環(huán)境已完全準備就緒。這樣,就可以放心訓練和測試模型,而無需擔心由于硬件問題導致的性能瓶頸或訓練中斷。

預訓練和微調通常來說,預訓練一個LLM往往需要投入極大的算力資源以及海量的高質量文本數(shù)據,訓練過程通常需要數(shù)周甚至數(shù)月。相比之下,微調一個已經預訓練好的模型所需的資源和時間顯著減少,通常只需幾小時到幾天即可完成。因此很多情況下普遍的做法就是在成熟的預訓練模型基礎上進行有針對性的微調,這樣通常都可以取得不錯的效果。那么我們還有必要進行預訓練嗎?其實絕大多數(shù)下游任務是無法通過微調來解決的。微調成功的前提的是:被微調模型的訓練語料所包括訓練任務的種類,其本身和要微調的任務差距不大,最重要的是訓練語料,要求預訓練模型里面包含了微調訓練所需要的知識。然而生產環(huán)境中實際遇到的大多數(shù)問題可能都可歸結于這幾種情況:語言不匹配(例如預訓練模型是英文,微調任務是中文;遇到特定領域的專業(yè)詞匯,如醫(yī)療、生物、金融領域)。當一個訓練任務無法解決上述的問題時,就不能只依賴微調,8N系列針對特定工作負荷提供三種特定產品

/服務:oNC系列專用于高性能計算和機器學習工作負荷。全新版本NCsv3配備NVIDIA

TeslaV100

GPU。oNDS系列專用于進行深度學習的訓練和推理方案。該系列使用NVIDIA

Tesla

P40

GPU。全新版本

NDV2配備NVIDIATeslaV100GPU。oNV系列采用NVIDIATesla

M60

GPU,支持功能強大的遠程可視化工作負荷和其他圖形密集型應用程序。NCsv3、NCsv2、NC

NDs

VM

提供可選的

InfiniBand

互連,可實現(xiàn)向上擴展。示例工作負載包括模擬、深度學習、圖形呈現(xiàn)、視頻編、游戲和遠程可視化。配備GPU的N系列Azure虛擬機可通過不同配置滿足用戶的AI模型訓練等多樣化需求如果選擇在Azure平臺上搭建訓練環(huán)境:對于大規(guī)模分布式訓練,建議使用

ND系列Azure虛擬機;對于小規(guī)模微調或推理,可考慮使用NC系列

Azure虛擬機。在考慮分布式訓練環(huán)境時,主要會面臨兩個選項:本地服務器和云環(huán)境。本地服務器(如NVIDIA

DGX或HGX)提供了強大算力,特別適合需要高性能計算資源的大規(guī)模訓練任務。這些服務器通常配備頂級GPU,能提供極高處理速度和大量并行計算能力,從而顯著縮短訓練時間。然而這種選擇的缺點也很明顯。首先是成本問題,高性能服務器設備本身價格不菲;

此外還需要考慮供電、機房托管以及持續(xù)運維成本。相較而言,公有云環(huán)境則提供了一種更靈活且成本效益更高的解決方案。借助云服務提供商(如Azure)搭建的平臺,用戶可以按需輕松租用

GPU

強化的虛擬機,而無須擔心硬件采購、維護和升級。這種按需服務模式不僅可大幅降低初始投資,還能根據項目需求的變化靈活調整計算資源,從而優(yōu)化成本效率。N系列啟用GPU

的虛擬機N系列是具有GPU

功能的

Azure虛擬機家族。GPU非常適合計算和圖形密集的工作負荷,幫助客戶通過高端遠程可視化、深度學習和預測分析等方案來加速創(chuàng)新。

環(huán)境的選擇請參閱:/zh-cn/solutions/ai/9微調需要在特定數(shù)據集上繼續(xù)訓練模型,使其更好地適應特定任務或領域。該手段涉及模型權重的更新,通常可顯著提高模型在特定任務上的性能,但不可避免需要較大的算力和時間投入。因此很多情況下,也可以借助諸如國際版MicrosoftAzure這樣的公有云所提供的強大、靈活的算力來處理此類任務。目前,AzureOpenAl開放了微調功能的模型包括:gpt-35-turbo-0613、babbage-002、davinci-002。這種方式不僅可以有效降低基礎設施成本,并通過按需付費的模式提供成本效益,而且可以獲得相比其他方式更高程度的便利性和可訪問性。Azure

提供了現(xiàn)成的工具和服務,使得模型微調過程更簡便,用戶可以快速啟動并配置所需資源。并

且在日常使用過程中,還能根據需求動態(tài)調整資源,實現(xiàn)更靈活的擴展。請參閱:/zh-cn/products/ai-services/早期的NLP任務大多采用RNN(循環(huán)神經網絡)來處理,尤其是翻譯和分類任務。RNN

在這些應用中實現(xiàn)了較好的效果,但其弊端在于無法把模型做得很大,這導致模型的知識累積和推理能力都受到限制。為解決這些問題,Transformer網絡應運而生,它天生支持大參數(shù)量,因此可以學到更多知識,同時也能很好地解決RNN訓練效率低下的問題。

GPT的優(yōu)化大部分情況下,我們可以通過提示工程(Prompt

Engineering)、微調

(Fine-tuning)以及檢索增強生成(RetrievalAugmented

Generation

,RAG)這三種手段來優(yōu)化GPT模型,以適應特定應用需求并提高模型在特定領域的表現(xiàn)。這三種

手段可以獨立使用,亦可結合使用,以達到最佳優(yōu)化效果。提示工程旨在通過設計精巧的提示來操縱模型的輸出,而無須改變模型結構或重新訓練模型。這種方法依賴于對模型響應方式的理解,可通過不同的輸入格式和內容來引導模型生成所需答案。隨著ChatGPT等相關工具的進步,市場上涌現(xiàn)出多種輔助工具,可幫助用戶創(chuàng)造有效的提示內容。但這一過程中還需要用到Meta-prompt(可以理解為一種更為底層的Prompt)。Meta-prompt聚焦于四個關鍵要素:回應依據(Response

Grounding)、語氣(Tone)、內容安全性(Safety)以及如何避免違規(guī)行為(Jailbreaks)。在此類技術的幫助下,我們就可以構建更有效的

Prompt,進而在與ChatGPT等對話型AI系統(tǒng)互動時

獲得更準確、更有價值的反饋。了解GPT

提示工程

微調10RAG架構AzureAl

SearchData

Sources(files,databases,

etc.)App

Server,

OrchestratorQuery

KnowledgePrompt

+

Knowledge

ResponseAzureOpenAl(GPT/ChatGPT)App

uxRAG

則會將私有或專業(yè)領域的數(shù)據集整合到模型工作過程中,以擴展模型的知識庫。借此可以幫助模型學習最新的行業(yè)知識或公司內部的專有信息,從而提高模型在特定領域的準確性和相關性。下圖展示了一個基于國際版Azure

OpenAl

的系統(tǒng)架構。在這個架構中,用戶通過API

接口層發(fā)送請求,該請求被轉發(fā)到AzureOpenAl

服務。AzureOpenAl

服務在處理請求時,可能會通過知識檢索引擎訪問知識庫中的數(shù)據,以增強回復的準確性。同時也可能利用Prompt模板管理中的模板來優(yōu)化問題的表述。最終,Azure

OpenAl服務生成的回復通過API接口層返回給用戶。這樣的設計使得系統(tǒng)不僅能夠提供智能化的回答,還能確保處理過程的靈活性和擴展性。在RAG

架構中,除了

GPT自身的基礎能力外,檢索的準確性顯得尤為關鍵,因為它關乎能否找到有用的信息來輔助生成過程。OpenAI

自帶的檢索實現(xiàn)主要是向量,這涉及將查詢轉化為向量表示,然后在數(shù)據庫中尋找語義上相似的內容段落。Azure認知服務不僅支持這種搜素模式,還在其基礎上增加了更多功能,以顯著提高檢索的相關性。請參閱:/zh-cn/products/ai-services/ai-search/

RAG11RAG

包含一個初始檢索步驟,GPT

可以借此查詢外部數(shù)據源以獲取相關信息,然后回答問題或生成文本。這種檢索和生成能力可以從大規(guī)模的文本語料庫中檢索相關信息,然后生成回答。這使得RAG模型能夠處理更廣泛、更復雜的問題,包括

需要實時更新或特定領域知識的問題。一般來說,由RAG增強的GPT往往具備如下優(yōu)勢:靈活性和可擴展性RAG模式的設計使得它可以很容易地與其他模型整合,或在不同任務和領域中使用。提高生成的質量RAG模式在生成回答時,會考慮檢索到的內容,這使它能生成更準確、更詳細的回答。特定領域的知識RAG模式可從特定領域的文本語料庫中檢索信,這使得它能夠處理需要特定領域知識的問題。通過檢索機制,RAG

模式可處理一些長尾問題,即那些出現(xiàn)頻率低但需要特定知識才能回答處理長尾問題的問題。RAG

模式可從最新文本語料庫中檢索信息,這使得它能獲取訓練后的新知識,處理需要實時實時更新的知識更新的問題。

GPT的主要應用場景GPT強大的語言處理能力使其快速融入到各行各業(yè),催生出廣泛的應用場景。

基于RAG的知識庫12對于開展電商業(yè)務的商家來說,要想在激烈的競爭中推動銷量增長,商品詳情頁的優(yōu)化已成為一項必不可少的措施。然而隨著商品數(shù)量激增,這個任務會變得越來越復雜和耗時。好在GPT的文本總結、內容生成和語言理解能力相結合,可以自動完成這項任務,降低對人工操作的依賴,最終幫助商家提高產品吸引力和可見性,吸引更多潛在客戶。典型的電商平臺產品詳情頁往往包括商品標題、要點、描述等要素,這些都是潛在買家在搜索和考慮購買商品時的重要參考信息。借助GPT強大的文本總結和生成能力,可以根據用戶提供的商品要點、搜索詞、標題等信息,有效優(yōu)化這些內容,提高商品的吸引力和搜索引擎排名。此外,用戶評價也是優(yōu)化商品詳情頁的一項重要數(shù)據。這些反饋可以幫助商家了解產品優(yōu)劣勢,以便在詳情頁突出顯示這些信息。通過API或網頁抓取工具從電商平臺獲取用戶評價,然后通過GPT將大量評價總結為簡潔、明了的觀點,即可快

速了解用戶對產品的看法,從而做出相應優(yōu)化。在此基礎上還誕生了多智能體(Multi-Agent)的概念。這是一種軟件范式,會將軟件系統(tǒng)視為由一組自主、互動的實體(即“智能體”)所組成的集合。按照設計,每個智能體都執(zhí)行各自的特定任務,并具有與其他智能體交互的能力,這樣即可實現(xiàn)復雜目標。這種方法在任務分布并需要各種軟件組件之間協(xié)作的環(huán)境中特別有效。多智能體系統(tǒng)在處理復雜任務時,無論是在記憶需求、穩(wěn)定性、可擴展性,還是在并行處理和決策能力上都表現(xiàn)出了明顯優(yōu)勢。這些優(yōu)勢使得多智能體系統(tǒng)在處理現(xiàn)實世界的復雜問題時,具有更大潛力和可能性。在軟件開發(fā)過程中,隨著業(yè)務邏輯日趨復雜,軟件架構也逐漸從單文件程序發(fā)展到模塊、對象包,再到復雜的微服務調用等模式。生成式AI

應用的發(fā)展歷程中也經歷著類似的模式,那就是智能體(Agent),這已經成為構建通用人工智能(AGI)

系統(tǒng)最初的基礎模塊。一個簡單的智能體通常有三個核心屬性,而智能體就是在這三個屬性的幫助下實現(xiàn)了自我包含和專業(yè)化:技能和工具根據提供給它的自定義指令以及它可以使用的工具,執(zhí)

行專門的任務。實現(xiàn)某個目

標的能力。效應器和感受器使用自然語言和API

與其他服務和智能體交談,以實現(xiàn)

某個目標的能力。自定應自定義的知識庫和記憶。

智能體和多智能體

優(yōu)化電商詳情頁13智能

Microsoft

Copilot

副駕駛?

是微軟推出的一系列AI助手,目前已包含在

Microsoft

365、Dynamics

365以及GitHub

等諸多微軟旗下軟件和服務中。它不僅集成了大型語言模型的智能,還結合了MicrosoftGraph的數(shù)據資源,如用戶的日歷、電子郵件、聊天記錄、文檔和會議信息,以及Microsoft365的應用功能。智能

Microsoft

Copilot

副駕駛?

可將用戶指令轉化為具體的生產力行動,并在多種任務和場合提供定制化的幫助。例如智能GitHubCopilot副駕駛?

是一個智能編程伙伴,可利用OpenAI的GPT模型幫助用戶自動編寫代碼注釋并提供代碼建議,

從而提高編程效率。智能

MicrosoftCopilot副駕駛?

已經發(fā)展成為一個全面的輔助工具,涵蓋了從網絡瀏覽到商務分析等不同方面的廣泛應用。。

與Microsoft

365應用程序集成:包括Word、Excel、PowerPoint、Outlook、Teams

等,均可在應用中與智能MicrosoftCopilot副駕駛?

for

Microsoft365直接交互,幫助用戶釋放創(chuàng)造力、提高生產力和技能水平。

基于聊天的界面:能在LLM、Microsoft

365

應用程序和用戶數(shù)據(日歷、電子郵件、聊天記錄、文檔、會議和聯(lián)系人

)

之間建立橋梁,幫助用戶完成以前無法完成的事情。注意:智能

Microsoft

Copilot副駕駛?

的可用情況因用戶所處地理區(qū)域、所用軟件

/服務

/訂閱的版本而異。部分功

能可能需要單獨訂閱。

生產力輔助智能

MicrosoftCopilot副駕駛?

能以兩種方式集成到Microsoft365,進而融入用戶的日常工作流程中:簡單易上手的Copilot集成在Word

中的智能Microsoft

Copilot

副駕駛?

,可幫助用戶創(chuàng)建各類內容14Microsoft365包含的網頁端智能Microsoft

Copilot

副駕駛?

,可通過聊天解答用戶問題或提供信息智能MicrosoftCopilot副駕駛?

for

Microsoft365入口:https:///chat

創(chuàng)意工具Designer是微軟提供的,由AI技術驅動的設計工具,可以自動執(zhí)行很多設計任務,例如通過用戶指定的文字生成圖片、選擇不同配色方案或布局,甚至對文檔進行自定義排版。網頁版的Microsoft

Designer15在Designer的幫助下進行“文生圖”,并進一步調整所生成的圖片Microsoft

Designer官網:https:///

開發(fā)輔助Microsoft

Copilot

Stud

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論