T-CI 557-2024 人工智能驅動的校園欺凌防控管理技術規(guī)范_第1頁
T-CI 557-2024 人工智能驅動的校園欺凌防控管理技術規(guī)范_第2頁
T-CI 557-2024 人工智能驅動的校園欺凌防控管理技術規(guī)范_第3頁
T-CI 557-2024 人工智能驅動的校園欺凌防控管理技術規(guī)范_第4頁
T-CI 557-2024 人工智能驅動的校園欺凌防控管理技術規(guī)范_第5頁
已閱讀5頁,還剩12頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

ICS35.240.99CCSL67人工智能驅動的校園欺凌防控管理技術規(guī)范TechnicalspecificationsforpreventionandcontrolofbullyinginschoolsdrivenbyartificialintelligenceIT/CI557—2024前言 32規(guī)范性引用文件 33術語和定義 34符號和縮略語 35校園欺凌防控管理系統(tǒng)架構體系 36多模態(tài)數(shù)據(jù)集成融合分析要求 46.1數(shù)據(jù)來源 46.2數(shù)據(jù)處理 46.3數(shù)據(jù)分析 57算法構建要求以及評估指標 57.1構建要求 57.2評估指標 68應用場景功能構建要求 78.1功能要求 78.2公共場所場景應用 98.3隱私場所場景應用 9T/CI557—2024本文件按照GB/T1.1—2020《標準化工作導則第1部分:標準化文件的結構和起草規(guī)則》的規(guī)定起草。請注意本文件的某些內容可能涉及專利。本文件的發(fā)布機構不承擔識別專利的責任。本文件由南方科技大學提出。本文件由中國國際科技促進會歸口。本文件起草單位:南方科技大學、吉林大學、深圳市鎧碩達科技有限公司、深圳市駿嘉科技發(fā)展有限公司、北京大學、北京大學深圳研究生院、北京師范大學珠海校區(qū)、北京林業(yè)大學、深圳樹米網(wǎng)絡科技有限公司、北京高科中創(chuàng)科學技術中心、深圳渾沌數(shù)字化實驗室科技有限公司、中國第一汽車股份有限公司研發(fā)總院、杭州海康威視數(shù)字技術股份有限公司、上海巨眾網(wǎng)絡科技有限公司、北京旺凡科技有限公司、天津津湖數(shù)據(jù)有限公司、吉林省卡思特科技有限公司、吉林省中云數(shù)訊科技股份有限公司。本文件主要起草人:宋軒、張悅、謝洪彬、何忠榮、李博翱、張婧雯、劉仝、范子沛、王田、彭玉佳、畢波、陳欣、吳瑞彬、溫鵬、張浩然、袁飛、張凌宇、陳瑤、丁少杰、馮樹軍、樊玉靜、范明耀、周時瑩、李長龍、孔祥明、高仕寧、張文杰、宋小龍、王德周。3T/CI557—2024人工智能驅動的校園欺凌防控管理技術規(guī)范本文件規(guī)定了基于人工智能的校園欺凌防控管理系統(tǒng)架構、人工智能算法構建、應用場景功能構建等要求。本文件適用于以人工智能技術為驅動的校園防霸凌系統(tǒng)設計、開發(fā)和建設。2規(guī)范性引用文件下列文件中的內容通過文中的規(guī)范性引用而構成本文件必不可少的條款。其中,注日期的引用文件,僅該日期對應的版本適用于本文件;不注日期的引用文件,其最新版本(包括所有的修改單)適用于本文件。GB/T5271.34信息技術詞匯第34部分:人工智能神經(jīng)網(wǎng)絡GB/T35119產品生命周期數(shù)據(jù)管理規(guī)范GB/T35273信息安全技術個人信息安全規(guī)范GB/T41867信息技術人工智能術語3術語和定義GB/T5271.34、GB/T35119、GB/T41867界定的術語和定義適用于本文件。4符號和縮略語下列符號和縮略語適用于本文件。TP:真正例(正確預測的欺凌行為)FN:假負例(錯誤預測的非欺凌行為)n:樣本數(shù)量yi:預測值xi:真實值GCN:圖卷積網(wǎng)絡(GraphConvolutionalNetwork)LSTM:長短期記憶網(wǎng)絡(LongShort-TermMemory)MAE:平均絕對誤差(MeanAbsoluteError)MAPE:平均絕對百分比誤差(MeanAbsolutePercentageError)MFCC:梅爾倒譜系數(shù)(Mel-scaleFrequencyCepstralCoefficients)MSE:均方誤差(MeanSquaredError)RMSE:均方根誤差(RootMeanSquaredError)RNN:循環(huán)神經(jīng)網(wǎng)絡(RecurrentNeuralNetwork)Transformer:注意力模型5校園欺凌防控管理系統(tǒng)架構體系人工智能驅動的校園防霸凌技術系統(tǒng)包含數(shù)據(jù)采樣層、數(shù)據(jù)處理層、算法層和應用場景層,見圖1。4T/CI557—2024圖1人工智能驅動的校園欺凌防控管理技術架構體系其中:a)數(shù)據(jù)采樣層通過物理感知設備音視頻等非結構化數(shù)據(jù),利用問卷、校園數(shù)據(jù)庫收集學生的心理健康數(shù)據(jù)、教學活動數(shù)據(jù)等結構化數(shù)據(jù);b)數(shù)據(jù)處理層使用數(shù)據(jù)標注、數(shù)據(jù)聚合、數(shù)據(jù)清洗等方法進行數(shù)據(jù)預處理;c)算法層通過圖像識別、知識圖譜、強化學習、深度學習等人工智能算法實現(xiàn)欺凌行為識別,情緒分析等實際的場景應用。6多模態(tài)數(shù)據(jù)集成融合分析要求6.1數(shù)據(jù)來源采樣層應采集下列信息。a)公開數(shù)據(jù):包含校園內的監(jiān)控錄像、錄音、紅外傳感數(shù)據(jù)、雷達采集數(shù)據(jù)等公開數(shù)據(jù)。b)真實校園采集數(shù)據(jù):校園內的實時監(jiān)控錄像、錄音、紅外傳感等數(shù)據(jù)。c)學生個人信息:包含學生成績、年齡、性別、照片、性格趨向,個人關系等信息。d)教學信息:包含班級信息,年級信息,教學作息安排,課程成績等相關教學數(shù)據(jù)。e)校園地理位置信息:包含相關建筑、設備位置、重點監(jiān)控區(qū)域等學校二維和三維的校園地理位置數(shù)據(jù)。6.2數(shù)據(jù)處理6.2.1數(shù)據(jù)清洗應采用下列方法進行數(shù)據(jù)清洗。a)信噪比估計算法:用于去除信噪比低的語音識別音頻。b)去除質量較低或沒有有效信息的圖像,例如模糊、全黑的圖像。5T/CI557—2024c)數(shù)據(jù)去重:利用固定值、均值、中位數(shù)的填充方法,并進行分詞、停用詞去除、詞干化等處理去除文本中出現(xiàn)重復或缺失數(shù)據(jù)。d)異常檢測:用算法修正因機器故障而產生的傳感器和紅外數(shù)據(jù)。6.2.2數(shù)據(jù)標注針對不同分類的識別任務,應根據(jù)數(shù)據(jù)的不同類型或不同類別進行標注處理,用于算法模型的訓練。注:常見標注類別有文本標注、語音標注、圖像標注、3D點云標注等。6.3數(shù)據(jù)分析6.3.1特征提取針對不同類型的數(shù)據(jù),應采用下列特征提取技術。a)文本數(shù)據(jù):使用詞袋模型、詞頻—逆文本頻率指數(shù)(TF-IDF)、詞向量(Word2Vec)、雙向編碼器表示(BERT)、N元詞袋(bagofngrams)等技術提取文本數(shù)據(jù)特征。b)圖像數(shù)據(jù):使用尺度不變特征轉換(SIFT)、關鍵點快速創(chuàng)建特征向量(ORB)、方向梯度直方圖(HOG)、局部二值模式(LBP)、特征和級聯(lián)分類器(HAAR)等算法和模型描述圖像,并區(qū)分圖像類別。c)音頻數(shù)據(jù):MFCC、RNN、小波變換(WT)等模型分析并提取線性預測編碼(LPC)、感知線性預測編碼(PLP)、MFCC、濾波器組(Fbank)、語譜圖等音頻特征。6.3.2特征融合應采用下列方法進行特征數(shù)據(jù)的融合。a)特征拼接:將不同模態(tài)的特征向量端到端拼接在一起,形成一個長向量。b)特征相加:將不同模態(tài)的特征向量相加,得到一個新的特征向量。c)特征相乘:將不同模態(tài)的特征向量相乘,得到一個新的特征向量。7算法構建要求以及評估指標7.1構建要求7.1.1圖像識別技術7.1.1.1主成分分析對于維度較高的圖像數(shù)據(jù),采用主成分分析方法進行預處理,應支持下列功能要求:a)按目標要求構建校園監(jiān)控視頻數(shù)據(jù)集,同時將視頻數(shù)據(jù)分解為連續(xù)的獨立幀,將每幀圖像數(shù)據(jù)轉換為數(shù)值矩陣形式;b)通過計算圖像數(shù)據(jù)的協(xié)方差矩陣進行特征值分析,找到能夠最大限度表示原始數(shù)據(jù)分布的主成分;c)保留原始圖像數(shù)據(jù)的結構和信息,通過線性變換將高維數(shù)據(jù)映射到低維空間,使得在保留盡可能多信息的前提下,圖像數(shù)據(jù)的維數(shù)得以降低。7.1.1.2支持向量機在欺凌行為識別過程中應滿足下列要求:a)按目標要求構建帶有類別標簽的數(shù)據(jù)集,對訓練數(shù)據(jù)集和測試數(shù)據(jù)集進行劃分;b)對模型進行迭代訓練,完成訓練后更新模型參數(shù),并對訓練好的模型進行測試;c)通過攝像頭捕捉校園內的實時圖像,并使用支持向量機模型進行欺凌行為識別;d)通過人臉識別,使用支持向量機識別出涉及欺凌事件的學生個體。7.1.1.3卷積神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡實現(xiàn)欺凌行為識別和暴力傾向分析的功能,構建過程中應滿足下列要求:a)按目標要求構建帶有類別標簽的數(shù)據(jù)集,對訓練數(shù)據(jù)集和測試數(shù)據(jù)集進行劃分;6T/CI557—2024b)對模型進行迭代訓練,完成訓練后更新模型參數(shù),并對訓練好的模型進行測試;c)使用卷積神經(jīng)網(wǎng)絡對校園監(jiān)控視頻進行實時的欺凌行為和事件的識別分析;d)在表情語義分析方面,使用卷積神經(jīng)網(wǎng)絡分析圖像中學生的面部表情等生理信號,準確判別可能受到欺凌或有欺凌傾向的學生。7.1.1.4圖卷積網(wǎng)絡采用GCN實現(xiàn)欺凌事件空間關聯(lián)關系的分析功能,構建過程中應滿足下列要求:a)將校園圖像中每個像素點視作圖中的一個節(jié)點,像素之間的相鄰關系形成圖的邊,同時使用GCN有效捕獲這些像素之間的關系,完成基于空間關系的圖像分割;b)將欺凌對象識別作為圖結構預測任務,使用GCN提取對象各部分之間的結構信息,準確識別欺凌對象;c)在復雜的校園欺凌防控場景理解任務中,校園內物體之間的關系能被建模為圖結構。7.1.2語音識別技術7.1.2.1Transformer在校園欺凌防控中,Transformer用于欺凌事件中的語音分析,應滿足下列要求:a)按目標要求構建訓練數(shù)據(jù)集,并完成對模型的迭代訓練和測試;b)通過使用Transformer分析語音內容中的抱怨、威脅、侮辱等關鍵詞,偵測和識別學生可能發(fā)生的欺凌行為;c)使用Transformer分析涉及多個學生的對話場景,判斷復雜的欺凌行為事件。7.1.2.2循環(huán)神經(jīng)網(wǎng)絡使用RNN識別復雜的學生欺凌行為,構建過程中應滿足下列要求:a)按目標要求構建訓練數(shù)據(jù)集,并完成對模型的迭代訓練和測試;b)使用RNN分析學生的語音數(shù)據(jù),準確地判別相關的語氣變化、情緒狀態(tài)和語言習慣,識別是否存在欺凌的行為。7.1.2.3長短期記憶網(wǎng)絡使用LSTM處理長周期的校園欺凌防控分析任務,構建過程中應滿足下列要求:a)按目標要求構建訓練數(shù)據(jù)集,并完成對模型的迭代訓練和測試;b)使用LSTM持續(xù)監(jiān)測和分析學生的語音數(shù)據(jù),通過長期分析學生的語音模式變化趨勢,通過識別他們的情緒變化、語言習慣的改變判斷可能發(fā)生的欺凌跡象;c)通過LSTM分析多個學生之間長時間交流的復雜對話,識別復雜場景下的欺凌行為。7.1.2.4高斯混合模型可以使用高斯混合模型(GMM)識別校園欺凌行為,構建過程中應滿足下列要求:a)按目標要求構建訓練數(shù)據(jù)集,完成對模型的迭代訓練和測試;b)支持分析學生的語音特征的功能,通過識別異常的語音模式,并判斷欺凌事件是否發(fā)生。7.1.3多模態(tài)預訓練模型多模態(tài)預訓練模型在構建過程中應滿足下列要求:a)按目標要求構建訓練數(shù)據(jù)集,并完成對模型的迭代訓練和測試;b)使用自然語言大模型分析學生在社交媒體、校園論壇、聊天記錄等文本數(shù)據(jù)中的言論,發(fā)現(xiàn)含有侮辱、歧視等不當言論的文本,識別帶有強烈負面情緒(如憤怒、恐懼等)的文本信息;c)使用語音大模型分析學生在語音或視頻通話中的言論,識別出含有惡意威脅、侮辱的語音信息以及相關的語調、語速等元信息;d)使用視頻大模型來分析校園海量的監(jiān)控視頻,識別推搡、打擊等欺凌行為。7.2評估指標7.2.1平均絕對誤差7T/CI557—2024MAE是一種用于評估預測模型或者估計方法的常用指標,它計算的是預測值與實際觀測值之間差的絕對值的平均。MAE的值越小,表示預測模型的準確性越高。MAE能衡量預測模型的準確性,得到預測結果和實際情況的偏差程度。見公式(1)。7.2.2均方誤差MSE是一種常用的評價指標,它計算的是預測值和實際觀測值之間的差值的平方的平均。與MAE相比,MSE能更詳細地衡量預測模型的準確性,尤其是對模型是否能夠處理異常值的評估。見公式(2)。7.2.3均方根誤差RMSE是MSE的平方根。與MSE相比,RMSE更能反映模型預測的平均偏差。在欺凌行為預測中,RMSE用來衡量預測模型的準確性,尤其是在評估模型預測的一般性能力上。見公式(3)。7.2.4平均絕對百分比誤差MAPE是一種相對誤差指標,計算的是預測值與實際值之間的絕對誤差的百分比的平均。在欺凌行為預測中,MAPE能反映預測誤差相對于實際值的大小,展現(xiàn)預測精度的相對性能。見公式(4)。7.2.5準確率準確率是分類問題中最常用的評估指標,計算的是預測正確的樣本數(shù)占總樣本數(shù)的比例。在欺凌行為預測中,準確率能衡量模型在正確預測欺凌行為和非欺凌行為方面的能力。見公式(5)。式中:A——準確率;TN——真負例(正確預測的非欺凌行為);FP——假正例(錯誤預測的欺凌行為)。7.2.6召回率也稱為敏感性,即預測為正樣本(即欺凌行為)且實際為正樣本的比例占所有實際為正樣本的比例。在欺凌行為預測中,召回率用于衡量模型在找出所有實際欺凌行為方面的能力。見公式(6)。式中:R——召回率。8應用場景功能構建要求8.1功能要求8.1.1知識檢索知識檢索系統(tǒng)架構見圖2,應支持下列功能:a)從pdf、doc、csv、txt、png、ppt等格式的文檔中采集數(shù)據(jù);b)文檔數(shù)據(jù)的向量化編碼,并存儲在向量數(shù)據(jù)庫中;c)在用戶提問過程中,根據(jù)用戶的問題在向量數(shù)據(jù)庫中進行相似答案的召回,將多個召回的相似答案按照大模型的提示詞模板進行格式組裝;d)基于大模型輸出檢索結果,并注明結果所在文檔的出處;8T/CI557—2024e)法律法規(guī)檢索、處理建議推薦、心理輔導和智能多輪對話功能。圖2基于大模型的校園欺凌防控專家知識系統(tǒng)架構8.1.2行為識別應支持下列行為識別功能。a)監(jiān)控圖像分析:利用監(jiān)控攝像頭識別和檢測異常行為。b)紅外圖像分析:利用紅外攝像頭識別和檢測人體發(fā)出的熱輻射。c)傳感波形分析:利用傳感器捕捉到的波形信號,識別和檢測異常聲音和震動。8.1.3場景分析應支持下列場景分析功能。a)行為判定:通過語義識別提取對話關鍵詞和主題,判斷內容是否與霸凌相關。b)時間預測:通過對視頻或圖像中的光線等因素判斷霸凌行為發(fā)生的時間,并對霸凌高發(fā)時段進行預測。c)場所定位:語音和語義識別周圍環(huán)境音,并分析得出霸凌行為發(fā)生場所。d)還原現(xiàn)場:通過語音識別或視頻圖像處理判斷參與霸凌的人數(shù)及霸凌的方式,結合語音轉文字和語意識別技術,通過情緒識別分析文本數(shù)據(jù)中的情感傾向和情緒變化。8.1.4交互預警交互預警應支持下列模式。a)主動報警:當檢測到霸凌事件時,自動觸發(fā)報警機制,并通知學校管理人員或警方進行處理。b)自適應預警:通過歷史數(shù)據(jù)和行為分析,自動調整報警敏感程度。8.1.5風險

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論