2025年程序員個(gè)人年度工作總結(jié)_第1頁(yè)
2025年程序員個(gè)人年度工作總結(jié)_第2頁(yè)
2025年程序員個(gè)人年度工作總結(jié)_第3頁(yè)
2025年程序員個(gè)人年度工作總結(jié)_第4頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年程序員個(gè)人年度工作總結(jié)今年主要投入在公司核心交易系統(tǒng)的微服務(wù)化重構(gòu)、智能客服系統(tǒng)的AI功能迭代,以及開(kāi)發(fā)效率工具的持續(xù)優(yōu)化三個(gè)方向。年初接手交易系統(tǒng)重構(gòu)時(shí),原系統(tǒng)是單體架構(gòu),耦合度高,單次全量部署耗時(shí)45分鐘,大促期間數(shù)據(jù)庫(kù)QPS峰值常觸達(dá)瓶頸。我們團(tuán)隊(duì)用6個(gè)月完成拆分,將主流程拆分為訂單、支付、庫(kù)存、物流4個(gè)獨(dú)立服務(wù),引入K8s做容器編排,同時(shí)用Canal監(jiān)聽(tīng)數(shù)據(jù)庫(kù)binlog實(shí)現(xiàn)服務(wù)間數(shù)據(jù)同步。重構(gòu)后,單次服務(wù)部署時(shí)間縮短至8分鐘,大促期間通過(guò)彈性擴(kuò)縮容將數(shù)據(jù)庫(kù)QPS峰值從1.2萬(wàn)降到8000,系統(tǒng)可用性從99.6%提升至99.92%。過(guò)程中解決了分布式事務(wù)一致性難題,嘗試過(guò)TCC模式但發(fā)現(xiàn)補(bǔ)償邏輯復(fù)雜,最終結(jié)合本地消息表與RocketMQ事務(wù)消息,將事務(wù)失敗率控制在0.01%以下。智能客服系統(tǒng)方面,負(fù)責(zé)LLM模型的業(yè)務(wù)場(chǎng)景適配。年初用戶反饋機(jī)器人回答準(zhǔn)確率僅68%,尤其在處理售后糾紛類問(wèn)題時(shí)易遺漏關(guān)鍵信息。我們用業(yè)務(wù)語(yǔ)料對(duì)Llama3進(jìn)行微調(diào),引入提示工程設(shè)計(jì),針對(duì)不同意圖(咨詢、投訴、退換貨)設(shè)置不同的輸出模板。同時(shí)開(kāi)發(fā)了意圖分類模型,將多輪對(duì)話的上下文壓縮至2048token內(nèi),避免長(zhǎng)對(duì)話導(dǎo)致的性能下降。上線后,客服機(jī)器人的問(wèn)題解決率提升至82%,日均處理量從3000單增至8000單,人工介入率從35%降至18%。年中還主導(dǎo)優(yōu)化了模型推理服務(wù),用vLLM替換原有的HuggingFace推理框架,結(jié)合量化技術(shù),單實(shí)例QPS從15提升至40,推理成本降低45%。開(kāi)發(fā)效率工具上,去年搭建的自動(dòng)化測(cè)試平臺(tái)在今年完成2.0版本迭代。新增了接口測(cè)試的動(dòng)態(tài)參數(shù)生成功能,通過(guò)分析歷史請(qǐng)求日志自動(dòng)生成測(cè)試用例,覆蓋率從原來(lái)的手動(dòng)編寫(xiě)60%提升至85%。還集成了混沌測(cè)試模塊,模擬數(shù)據(jù)庫(kù)宕機(jī)、網(wǎng)絡(luò)延遲等場(chǎng)景,幫助團(tuán)隊(duì)提前發(fā)現(xiàn)20余處高風(fēng)險(xiǎn)代碼。平臺(tái)現(xiàn)在日均執(zhí)行測(cè)試用例1.2萬(wàn)次,測(cè)試反饋周期從2天縮短至4小時(shí)。另外,針對(duì)團(tuán)隊(duì)內(nèi)Go語(yǔ)言項(xiàng)目依賴管理混亂的問(wèn)題,開(kāi)發(fā)了依賴掃描工具,每周生成風(fēng)險(xiǎn)報(bào)告,半年內(nèi)將高危漏洞數(shù)量從15個(gè)降至0,中危漏洞數(shù)量下降70%。技術(shù)學(xué)習(xí)上,今年重點(diǎn)補(bǔ)全了云原生與AI工程化知識(shí)??既×薈KA認(rèn)證,主導(dǎo)搭建了公司內(nèi)部的K8s培訓(xùn)體系,組織6次線下分享,覆蓋40余名開(kāi)發(fā)與運(yùn)維同事。AI方面,系統(tǒng)學(xué)習(xí)了LangChain框架,實(shí)踐了RAG(檢索增強(qiáng)生成)在客服系統(tǒng)的應(yīng)用,解決了模型知識(shí)過(guò)期的問(wèn)題。閱讀了《DesigningDataIntensiveApplications》和《TransformersforNaturalLanguageProcessing》,做了3萬(wàn)余字的筆記,并在團(tuán)隊(duì)內(nèi)部分享了分布式系統(tǒng)設(shè)計(jì)原則與大模型微調(diào)技巧。團(tuán)隊(duì)協(xié)作中,作為前端與后端的接口人,主動(dòng)梳理了12個(gè)跨服務(wù)調(diào)用的API文檔,推動(dòng)建立了每周接口聯(lián)調(diào)會(huì)議機(jī)制,將接口對(duì)接耗時(shí)從平均3天縮短至8小時(shí)。帶教了2名應(yīng)屆生,制定了“3天熟悉業(yè)務(wù)1周參與小功能1個(gè)月獨(dú)立負(fù)責(zé)模塊”的培養(yǎng)計(jì)劃,目前兩人已能獨(dú)立完成簡(jiǎn)單需求開(kāi)發(fā)。在復(fù)盤(pán)會(huì)中提出“問(wèn)題根因追溯五步法”,被團(tuán)隊(duì)采納為標(biāo)準(zhǔn)流程,使故障復(fù)盤(pán)效率提升50%。不足方面,年初對(duì)智能客服系統(tǒng)的模型性能預(yù)估不足,導(dǎo)致上線初期出現(xiàn)過(guò)兩次推理服務(wù)超時(shí),后續(xù)通過(guò)增加緩存層和調(diào)整模型并行度解決,但暴露了容量規(guī)劃能力的短板。另外,在推動(dòng)開(kāi)發(fā)工具平臺(tái)使用時(shí),初期過(guò)于強(qiáng)調(diào)功能完善,忽視了操作便捷性,部分同事反饋學(xué)習(xí)成本高,后來(lái)增加了可視化配置界面和操作視頻,使用率才從40%提升至85%。這一年從具體的代碼編寫(xiě)到系統(tǒng)架構(gòu)設(shè)計(jì),從技術(shù)實(shí)現(xiàn)到團(tuán)隊(duì)能力提升,每一次問(wèn)題解決都讓自己對(duì)“技術(shù)服務(wù)業(yè)務(wù)”有了更深理解。無(wú)論是微服務(wù)拆分時(shí)對(duì)業(yè)務(wù)邊界的重新梳理,還是AI功能迭代中對(duì)用戶需求

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論