《人工智能通識(shí)(AIGC版)》課后交互式測驗(yàn)-參考答案 測驗(yàn)1-01 大模型、大語言模型和小語言模型-參考答案_第1頁
《人工智能通識(shí)(AIGC版)》課后交互式測驗(yàn)-參考答案 測驗(yàn)1-01 大模型、大語言模型和小語言模型-參考答案_第2頁
《人工智能通識(shí)(AIGC版)》課后交互式測驗(yàn)-參考答案 測驗(yàn)1-01 大模型、大語言模型和小語言模型-參考答案_第3頁
《人工智能通識(shí)(AIGC版)》課后交互式測驗(yàn)-參考答案 測驗(yàn)1-01 大模型、大語言模型和小語言模型-參考答案_第4頁
《人工智能通識(shí)(AIGC版)》課后交互式測驗(yàn)-參考答案 測驗(yàn)1-01 大模型、大語言模型和小語言模型-參考答案_第5頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

【單選題】關(guān)于視覺大模型的描述,錯(cuò)誤的是:??A.早期主要基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu)B.VisionTransformer(ViT)完全替代了CNN在圖像處理中的應(yīng)用C.可應(yīng)用于醫(yī)療影像分析和自動(dòng)駕駛領(lǐng)域D.Sora是OpenAI發(fā)布的文生視頻大模型??參考答案:B????解析??:雖然ViT在視覺任務(wù)中表現(xiàn)優(yōu)異,但CNN仍在實(shí)時(shí)性要求高的場景(如邊緣計(jì)算)中廣泛應(yīng)用,二者是互補(bǔ)而非替代關(guān)系。D選項(xiàng)Sora雖屬視頻生成,但屬于視覺大模型的拓展應(yīng)用?!締芜x題】多模態(tài)大模型的核心能力是:??A.僅處理高分辨率圖像B.實(shí)現(xiàn)跨模態(tài)信息融合(如文本與圖像)C.專門用于蛋白質(zhì)結(jié)構(gòu)預(yù)測D.替代人類進(jìn)行藝術(shù)創(chuàng)作??參考答案:B????解析??:多模態(tài)大模型的核心特征是處理和理解多種模態(tài)數(shù)據(jù)(如文本、圖像、音頻)并建立關(guān)聯(lián)。A片面,C屬于基礎(chǔ)科學(xué)大模型,D夸大了當(dāng)前能力。【單選題】基礎(chǔ)科學(xué)大模型的典型應(yīng)用案例是:??A.生成電商產(chǎn)品文案B.AlphaFold預(yù)測蛋白質(zhì)結(jié)構(gòu)C.電影特效生成D.智能客服對(duì)話??參考答案:B????解析??:AlphaFold是DeepMind開發(fā)的蛋白質(zhì)結(jié)構(gòu)預(yù)測模型,屬于基礎(chǔ)科學(xué)領(lǐng)域。A/C/D分別屬于自然語言處理和視覺生成的應(yīng)用場景?!締芜x題】??關(guān)于大模型訓(xùn)練的關(guān)鍵技術(shù),正確的是:??A.僅需監(jiān)督學(xué)習(xí)即可實(shí)現(xiàn)高性能B.依賴RLHF(人類反饋強(qiáng)化學(xué)習(xí))實(shí)現(xiàn)指令對(duì)齊C.參數(shù)規(guī)模越大模型能力必然越強(qiáng)D.無需預(yù)訓(xùn)練階段??參考答案:B????解析??:RLHF是大模型對(duì)齊人類意圖的核心技術(shù)。A錯(cuò)誤(需自監(jiān)督預(yù)訓(xùn)練),C錯(cuò)誤(需考慮數(shù)據(jù)質(zhì)量和架構(gòu)),D錯(cuò)誤(預(yù)訓(xùn)練是必要基礎(chǔ))?!締芜x題】關(guān)于大語言模型(LLM)的核心能力,描述錯(cuò)誤的是:??A.通過統(tǒng)計(jì)方法預(yù)測單詞序列的可能性B.僅能處理英文文本,無法支持多語言C.可生成符合人類語言習(xí)慣的連貫文本D.具備上下文理解和復(fù)雜推理能力??參考答案:B????解析??:現(xiàn)代LLM(如ChatGPT、文心一言)均支持多語言處理,B選項(xiàng)片面。A是語言模型的基本原理,C/D是LLM的典型能力?!締芜x題】以下哪項(xiàng)技術(shù)可用于緩解大模型的“幻覺”問題???A.使用TPU加速訓(xùn)練B.檢索增強(qiáng)生成(RAG)C.增加GPU數(shù)量D.擴(kuò)大模型參數(shù)量??參考答案:B????解析??:RAG通過結(jié)合實(shí)時(shí)數(shù)據(jù)檢索減少事實(shí)錯(cuò)誤(材料明確提及)。A/C/D均與訓(xùn)練效率相關(guān),與幻覺無關(guān)?!締芜x題】某公司使用大語言模型生成醫(yī)療診斷建議時(shí),最需警惕的風(fēng)險(xiǎn)是:??A.模型響應(yīng)速度過慢B.生成內(nèi)容存在“幻覺”C.不支持多語言輸入D.訓(xùn)練數(shù)據(jù)存儲(chǔ)占用過高??參考答案:B????解析??:醫(yī)療領(lǐng)域?qū)κ聦?shí)準(zhǔn)確性要求極高,模型“幻覺”(如虛構(gòu)藥物)可能造成直接危害(材料中舉例GPT-4的醫(yī)療錯(cuò)誤)。A/C/D均非醫(yī)療場景的核心風(fēng)險(xiǎn)。【單選題】關(guān)于小語言模型(SLM)的參數(shù)規(guī)模,正確的是:??A.通常在??數(shù)萬億參數(shù)??以上B.與LLM(大語言模型)參數(shù)規(guī)模相當(dāng)C.范圍從??幾百萬到幾十億??參數(shù)D.必須超過100億參數(shù)才能稱為SLM??參考答案:C????解析??:SLM的參數(shù)規(guī)模明顯小于LLM,材料明確提到其參數(shù)范圍為“幾百萬到幾十億”(如Phi-3為3.8B參數(shù))。A/D是LLM的特征,B與定義矛盾?!締芜x題】SLM的核心優(yōu)勢不包括:??A.適合??邊緣設(shè)備??等資源受限環(huán)境B.訓(xùn)練和部署成本??高于LLM??C.響應(yīng)速度??快??,支持實(shí)時(shí)交互D.可離線運(yùn)行,??保護(hù)用戶隱私????參考答案:B????解析??:SLM的核心優(yōu)勢正是成本??低于LLM??(材料提及“性價(jià)比高”)。A/C/D均為SLM的典型優(yōu)勢。【單選題】以下場景中,SLM比LLM更適用的是:??A.需要??通用知識(shí)問答??的搜索引擎B.手機(jī)端??離線翻譯??應(yīng)用C.生成??多模態(tài)長篇?

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論