版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
計(jì)算機(jī)視覺開發(fā)套件操作手冊(cè)一、主流開發(fā)套件介紹1.1NVIDIAJetsonThor開發(fā)套件作為2025年最新發(fā)布的旗艦級(jí)邊緣計(jì)算平臺(tái),JetsonThor搭載Blackwell架構(gòu)GPU,實(shí)現(xiàn)2070TFLOPSAI算力,較上一代提升7.5倍。該套件采用"雙腦架構(gòu)"設(shè)計(jì),包含負(fù)責(zé)環(huán)境感知的慢思系統(tǒng)(10Hz運(yùn)行頻率)和控制運(yùn)動(dòng)執(zhí)行的快思系統(tǒng)(120Hz運(yùn)行頻率),內(nèi)存容量升級(jí)至128GBLPDDR5X,支持40W-130W動(dòng)態(tài)功耗調(diào)節(jié)。硬件接口方面提供4組25GbE高速網(wǎng)絡(luò)接口、16通道MIPICSI-2攝像頭接口及NVIDIAHoloscan傳感器橋接技術(shù),可同步處理激光雷達(dá)、視覺、聲學(xué)等多模態(tài)數(shù)據(jù),延遲控制在10毫秒以內(nèi)。1.2GoogleCoralDevBoard3基于全新CoralNPU架構(gòu)的第三代開發(fā)板,采用"AI優(yōu)先"設(shè)計(jì)理念,在512GOPS算力輸出時(shí)保持毫瓦級(jí)功耗。硬件配置包括四核ARMCortex-A53處理器、RISC-V標(biāo)量核心及向量引擎,支持外積乘積累加運(yùn)算的矩陣引擎專為神經(jīng)網(wǎng)絡(luò)加速優(yōu)化。開發(fā)板提供USB3.2、GPIO、MIPI-DSI等擴(kuò)展接口,兼容CHERI內(nèi)存隔離安全設(shè)計(jì),通過硬件強(qiáng)制隔離實(shí)現(xiàn)本地?cái)?shù)據(jù)處理的隱私保護(hù)。配套的CoralUSBAccelerator可作為獨(dú)立加速模塊,通過USB3.0接口為現(xiàn)有設(shè)備提供即插即用的AI加速能力。1.3IntelMovidiusNeuralComputeStick4最新一代神經(jīng)計(jì)算棒采用MyriadXVPU架構(gòu),支持INT4/INT8/FP16混合精度計(jì)算,在10W功耗下實(shí)現(xiàn)28TOPS算力。該設(shè)備體積僅為70mm×27mm×12mm,通過USB-C接口直連,兼容Windows、Linux和macOS系統(tǒng)。硬件層面集成雙通道DDR4內(nèi)存控制器和PCIeGen3接口,支持多設(shè)備級(jí)聯(lián)擴(kuò)展算力。開發(fā)套件包含OpenVINO工具鏈,提供模型優(yōu)化器、推理引擎和性能分析工具,支持Caffe、TensorFlow、PyTorch等主流框架模型的直接部署。二、硬件配置指南2.1基礎(chǔ)硬件連接JetsonThor開發(fā)套件需通過專用19V電源適配器供電,建議搭配主動(dòng)式散熱底座(散熱片厚度≥5mm,風(fēng)扇轉(zhuǎn)速≥3000RPM)。攝像頭連接推薦使用MIPI-CSI接口的IMX477傳感器模組(1200萬像素,支持全局快門),通過FPC排線直連JetsonThor的CSI0接口。網(wǎng)絡(luò)連接優(yōu)先采用25GbESFP+光纖模塊,在工業(yè)環(huán)境中需配合浪涌保護(hù)器(防護(hù)等級(jí)≥6KV)。對(duì)于多傳感器配置,可通過NVIDIAHoloscanSync同步卡實(shí)現(xiàn)激光雷達(dá)與攝像頭的時(shí)間校準(zhǔn),同步誤差控制在±1微秒以內(nèi)。CoralDevBoard3采用PoE(以太網(wǎng)供電)設(shè)計(jì),可通過千兆網(wǎng)線直接連接支持802.3af標(biāo)準(zhǔn)的交換機(jī)。擴(kuò)展接口方面,GPIO引腳支持3.3V/5V電平輸出,最大驅(qū)動(dòng)電流50mA,連接外部設(shè)備時(shí)需注意串接220Ω限流電阻。MIPI-DSI接口可外接7英寸觸控顯示屏(分辨率1920×1080),通過I2C接口實(shí)現(xiàn)觸摸信號(hào)傳輸。當(dāng)使用USBAccelerator時(shí),需確保主機(jī)USB端口供電能力≥2.5W,避免因供電不足導(dǎo)致設(shè)備識(shí)別失敗。2.2硬件性能測(cè)試JetsonThor需通過JetsonPowerGUI工具進(jìn)行功耗配置,在工業(yè)檢測(cè)場(chǎng)景建議設(shè)置為100W性能模式,此時(shí)AI算力可達(dá)1800TFLOPS。內(nèi)存帶寬測(cè)試可使用jetson_clocks--mem命令,典型值應(yīng)≥273GB/s。攝像頭采集性能驗(yàn)證推薦運(yùn)行nvgstcapture-1.0--sensor-id=0--cap-dev-node=0,檢查1080P@60fps視頻流的丟幀率應(yīng)<0.1%。存儲(chǔ)性能測(cè)試使用ddif=/dev/zeroof=/tmp/testbs=1Gcount=10oflag=direct,eMMC寫入速度應(yīng)≥200MB/s。CoralDevBoard3的NPU性能測(cè)試可通過coral-benchmark工具進(jìn)行,運(yùn)行MobileNet-v2模型時(shí)推理延遲應(yīng)<3ms,吞吐量≥300FPS。電源穩(wěn)定性驗(yàn)證需在滿負(fù)載狀態(tài)下(同時(shí)運(yùn)行圖像分類、目標(biāo)檢測(cè)和語義分割任務(wù))監(jiān)測(cè)電壓波動(dòng),12V輸入的紋波系數(shù)應(yīng)<5%。溫度測(cè)試在環(huán)境溫度35℃時(shí),核心區(qū)域溫升不應(yīng)超過40K,建議通過thermal-monitor工具設(shè)置85℃觸發(fā)的降頻保護(hù)。三、軟件環(huán)境搭建3.1操作系統(tǒng)安裝JetsonThor推薦安裝JetPack7.0SDK,包含Ubuntu22.04LTS定制版系統(tǒng)。通過SDKManager工具刷機(jī)時(shí)需注意:使用USB-C數(shù)據(jù)線連接開發(fā)板Recovery接口在"組件選擇"中勾選"JetsonRuntime"和"DeepStreamSDK"分區(qū)配置時(shí)為"/home"目錄分配至少64GB空間完成系統(tǒng)燒錄后執(zhí)行sudoaptupdate&&sudoaptupgrade-y更新系統(tǒng)組件CoralDevBoard3默認(rèn)搭載MendelLinux6.0系統(tǒng),支持通過mdtflash命令線工具升級(jí)固件:gitclone/google-coral/mdt.gitcdmdt./mdtinstallmdtflash--boarddevboard3--version6.0系統(tǒng)初始化時(shí)需配置WiFi連接和開發(fā)者賬戶,建議創(chuàng)建具有sudo權(quán)限的標(biāo)準(zhǔn)用戶而非直接使用root賬戶。3.2開發(fā)環(huán)境配置OpenCV5.0環(huán)境搭建需通過源碼編譯以啟用硬件加速:#安裝依賴sudoaptinstallbuild-essentialcmakegitlibgtk2.0-devpkg-configlibavcodec-devlibavformat-devlibswscale-dev#下載源碼gitclone/opencv/opencv.git-b5.0.0gitclone/opencv/opencv_contrib.git-b5.0.0#編譯配置cdopencv&&mkdirbuild&&cdbuildcmake-DCMAKE_BUILD_TYPE=RELEASE\-DCMAKE_INSTALL_PREFIX=/usr/local\-DOPENCV_EXTRA_MODULES_PATH=../../opencv_contrib/modules\-DWITH_CUDA=ON\-DWITH_CUDNN=ON\-DCUDA_ARCH_BIN=8.7\-DBUILD_opencv_dnn_superres=ON\-DBUILD_EXAMPLES=ON..#編譯安裝make-j$(nproc)sudomakeinstall驗(yàn)證安裝:pkg-config--modversionopencv4應(yīng)返回5.0.0版本號(hào)。深度學(xué)習(xí)框架配置方面,Jetson平臺(tái)推薦安裝PyTorch2.3.0+cu12.1和TensorFlow2.16.0:#安裝PyTorchpip3installtorch==2.3.0+nv25.05torchvision==0.18.0+nv25.05torchaudio==2.3.0+nv25.05--extra-index-url/compute/redist/jp/v61#安裝TensorFlowpip3installtensorflow==2.16.0+nv25.05Coral平臺(tái)需安裝專用EdgeTPU運(yùn)行時(shí):pip3installtflite-runtime==2.16.0.post13.3開發(fā)工具鏈配置JetsonThor集成IsaacSim2025.1仿真平臺(tái),安裝流程:sudoaptinstallnvidia-omniverse-launcher#啟動(dòng)啟動(dòng)器并登錄NVIDIA賬戶#安裝IsaacSim后配置環(huán)境變量echo"exportISAAC_SIM_PATH=~/.local/share/ov/pkg/isaac_sim-2025.1.0">>~/.bashrcsource~/.bashrc創(chuàng)建仿真環(huán)境:${ISAAC_SIM_PATH}/python.sh${ISAAC_SIM_PATH}/examples/hello_world.pyCoral平臺(tái)開發(fā)工具安裝:#安裝Coral模型編譯器pip3installcoral-model-compiler#安裝視覺應(yīng)用開發(fā)庫pip3installpycoral==2.0.0#下載示例代碼gitclone/google-coral/examples-camera.git四、核心功能操作4.1圖像采集與預(yù)處理使用OpenCV5.0采集MIPI攝像頭數(shù)據(jù):importcv2importnumpyasnp#配置JetsonThor攝像頭cap=cv2.VideoCapture(0,cv2.CAP_V4L2)cap.set(cv2.CAP_PROP_FRAME_WIDTH,1920)cap.set(cv2.CAP_PROP_FRAME_HEIGHT,1080)cap.set(cv2.CAP_PROP_FPS,60)#設(shè)置ISP參數(shù)cap.set(cv2.CAP_PROP_AUTO_EXPOSURE,0.25)#手動(dòng)曝光模式cap.set(cv2.CAP_PROP_EXPOSURE,1000)#曝光時(shí)間1mscap.set(cv2.CAP_PROP_GAIN,16)#增益值16#采集并預(yù)處理圖像ret,frame=cap.read()ifret:#轉(zhuǎn)換色彩空間frame_rgb=cv2.cvtColor(frame,cv2.COLOR_BGR2RGB)#應(yīng)用CLAHE增強(qiáng)clahe=cv2.createCLAHE(clipLimit=2.0,tileGridSize=(8,8))frame_enhanced=clahe.apply(cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY))#保存圖像cv2.imwrite("captured_frame.jpg",frame_enhanced)cap.release()多傳感器數(shù)據(jù)同步通過NVIDIAHoloscan實(shí)現(xiàn):importholoscanashsfromholoscan.operatorsimportV4L2SourceOp,HolovizOp#創(chuàng)建應(yīng)用app=hs.Application()#定義數(shù)據(jù)流source=V4L2SourceOp(app,name="source",device="/dev/video0",width=1920,height=1080,framerate=60)visualizer=HolovizOp(app,name="visualizer",width=1920,height=1080)#連接數(shù)據(jù)流app.add_flow(source,visualizer,{("output","receivers")})#運(yùn)行應(yīng)用app.run()4.2深度學(xué)習(xí)模型部署Jetson平臺(tái)部署YOLOv11目標(biāo)檢測(cè)模型:importtorchfromultralyticsimportYOLO#加載模型model=YOLO("yolov11n.pt")#轉(zhuǎn)換為TensorRT格式model.fuse()model=model.to("cuda")#推理視頻流cap=cv2.VideoCapture(0)whilecap.isOpened():ret,frame=cap.read()ifnotret:break#模型推理results=model(frame,stream=True,device=0,half=True)#繪制檢測(cè)結(jié)果forresultinresults:boxes=result.boxes.cpu().numpy()forboxinboxes:x1,y1,x2,y2=map(int,box.xyxy[0])cv2.rectangle(frame,(x1,y1),(x2,y2),(0,255,0),2)cv2.imshow("Detection",frame)ifcv2.waitKey(1)&0xFF==ord('q'):breakcap.release()cv2.destroyAllWindows()Coral平臺(tái)部署量化模型:frompycoral.utils.edgetpuimportmake_interpreterfrompycoral.utils.datasetimportread_label_filefrompycoral.adaptersimportcommon,classify#加載模型和標(biāo)簽model_path="mobilenet_v2_1.0_224_quant_edgetpu.tflite"label_path="imagenet_labels.txt"interpreter=make_interpreter(model_path)interpreter.allocate_tensors()labels=read_label_file(label_path)#圖像預(yù)處理image=cv2.imread("test.jpg")image=cv2.resize(image,(224,224))image=cv2.cvtColor(image,cv2.COLOR_BGR2RGB)common.set_input(interpreter,image)#推理執(zhí)行interpreter.invoke()classes=classify.get_classes(interpreter,top_k=5)#輸出結(jié)果forcinclasses:print(f"{labels.get(c.id,c.id)}:{c.score:.2f}")4.3超分辨率重建使用OpenCV5.0DNN超分辨率模塊:fromcv2importdnn_superres#創(chuàng)建超分辨率對(duì)象sr=dnn_superres.DnnSuperResImpl_create()#加載模型model_path="EDSR_x4.pb"sr.readModel(model_path)sr.setModel("edsr",4)#設(shè)置模型類型和放大倍數(shù)#讀取圖像并重建image=cv2.imread("low_res.jpg")result=sr.upsample(image)#保存結(jié)果cv2.imwrite("high_res_edsr.jpg",result)#對(duì)比不同模型性能models={"espcn":"ESPCN_x4.pb","fsrcnn":"FSRCNN_x4.pb","lapsrn":"LapSRN_x8.pb"}forname,pathinmodels.items():sr.readModel(path)sr.setModel(name,4ifname!="lapsrn"else8)result=sr.upsample(image)cv2.imwrite(f"high_res_{name}.jpg",result)4.4三維點(diǎn)云處理通過Open3D與深度相機(jī)配合:importopen3daso3dimportcv2importnumpyasnp#讀取RGBD圖像color_raw=o3d.io.read_image("color.jpg")depth_raw=o3d.io.read_image("depth.png")rgbd_image=o3d.geometry.RGBDImage.create_from_color_and_depth(color_raw,depth_raw,convert_rgb_to_intensity=False)#創(chuàng)建點(diǎn)云pcd=o3d.geometry.PointCloud.create_from_rgbd_image(rgbd_image,o3d.camera.PinholeCameraIntrinsic(o3d.camera.PinholeCameraIntrinsicParameters.PrimeSenseDefault))#點(diǎn)云預(yù)處理pcd.transform([[1,0,0,0],[0,-1,0,0],[0,0,-1,0],[0,0,0,1]])pcd=pcd.voxel_down_sample(voxel_size=0.01)pcd.estimate_normals(search_param=o3d.geometry.KDTreeSearchParamHybrid(radius=0.1,max_nn=30))#可視化o3d.visualization.draw_geometries([pcd])五、應(yīng)用案例實(shí)踐5.1工業(yè)缺陷檢測(cè)系統(tǒng)基于JetsonThor構(gòu)建的實(shí)時(shí)質(zhì)檢系統(tǒng):硬件配置:JetsonThor開發(fā)套件(130W性能模式)2x2000萬像素全局快門相機(jī)(500fps)多光譜光源控制器(UV+白光雙模式)機(jī)械臂協(xié)作接口(ModbusTCP/IP)軟件實(shí)現(xiàn):importcv2importtorchimportnumpyasnpfromultralyticsimportYOLOimportpymodbus.clientasmodbus_client#初始化模型model=YOLO("defect_detection_v2.pt").to("cuda")model.fuse()#連接機(jī)械臂client=modbus_client.ModbusTcpClient('00')client.connect()#相機(jī)配置cap1=cv2.VideoCapture(0,cv2.CAP_V4L2)cap1.set(cv2.CAP_PROP_FRAME_WIDTH,2592)cap1.set(cv2.CAP_PROP_FRAME_HEIGHT,2048)cap1.set(cv2.CAP_PROP_FPS,60)#檢測(cè)流程defdetect_defects():ret,frame=cap1.read()ifnotret:returnFalse#模型推理results=model(frame,conf=0.85,iou=0.45)#處理檢測(cè)結(jié)果defects=[]forboxinresults[0].boxes:ifbox.cls==0:#裂紋缺陷x1,y1,x2,y2=map(int,box.xyxy[0])defects.append((x1,y1,x2,y2))#在圖像上標(biāo)記cv2.rectangle(frame,(x1,y1),(x2,y2),(0,0,255),3)#發(fā)送缺陷坐標(biāo)到機(jī)械臂ifdefects:#轉(zhuǎn)換為機(jī)械臂坐標(biāo)系統(tǒng)arm_coords=[(x1/2592*500,y1/2048*500)forx1,y1,x2,y2indefects]#通過Modbus發(fā)送fori,(x,y)inenumerate(arm_coords[:10]):#最多發(fā)送10個(gè)缺陷client.write_register(0x0100+i*2,int(x*10),unit=1)client.write_register(0x0101+i*2,int(y*10),unit=1)client.write_coil(0x0000,True,unit=1)#觸發(fā)分揀cv2.imwrite(f"defect_sample_{timestamp}.jpg",frame)returnTruereturnFalse#連續(xù)檢測(cè)whileTrue:detect_defects()ifcv2.waitKey(1)&0xFF==ord('q'):breakcap1.release()client.close()性能指標(biāo):檢測(cè)速度:32ms/幀(包含圖像采集、推理和結(jié)果處理)缺陷識(shí)別率:>99.2%(針對(duì)0.1mm以上裂紋)誤檢率:<0.5%(每1000個(gè)樣本)系統(tǒng)延遲:<50ms(從圖像采集到機(jī)械臂響應(yīng))5.2醫(yī)療手術(shù)輔助系統(tǒng)基于CoralDevBoard3的實(shí)時(shí)器官分割:硬件配置:CoralDevBoard3+CoralUSBAccelerator4Kendoscopiccamera(120fps,HDMI接口)醫(yī)療級(jí)觸摸屏顯示器腳踏開關(guān)控制器核心算法實(shí)現(xiàn):importcv2importnumpyasnpfrompycoral.utils.edgetpuimportmake_interpreterfrompycoral.adaptersimportsegment#加載分割模型interpreter=make_interpreter("organ_segmentation_quant_edgetpu.tflite")interpreter.allocate_tensors()input_details=interpreter.get_input_details()output_details=interpreter.get_output_details()#相機(jī)配置cap=cv2.VideoCapture(0)cap.set(cv2.CAP_PROP_FRAME_WIDTH,3840)cap.set(cv2.CAP_PROP_FRAME_HEIGHT,2160)cap.set(cv2.CAP_PROP_FPS,30)#顏色映射(器官類別->顏色)color_map={0:[0,0,0],#背景1:[255,0,0],#肝臟2:[0,255,0],#腎臟3:[0,0,255],#脾臟4:[255,255,0]#腫瘤}#分割流程whileTrue:ret,frame=cap.read()ifnotret:break#預(yù)處理input_shape=input_details[0]['shape'][1:3]input_data=cv2.resize(frame,input_shape)input_data=np.expand_dims(input_data,axis=0)input_data=input_data.astype(np.uint8)#推理interpreter.set_tensor(input_details[0]['index'],input_data)interpreter.invoke()#獲取輸出output=interpreter.get_tensor(output_details[0]['index'])seg_map=np.argmax(output[0],axis=-1)#生成彩色掩碼mask=np.zeros_like(frame)forclass_id,colorincolor_map.items():mask[seg_map==class_id]=color#疊加顯示result=cv2.addWeighted(frame,0.7,mask,0.3,0)#顯示幀率fps=cap.get(cv2.CAP_PROP_FPS)cv2.putText(result,f"FPS:{fps:.1f}",(10,30),cv2.FONT_HERSHEY_SIMPLEX,1,(0,255,0),2)cv2.imshow("SurgicalSegmentation",result)ifcv2.waitKey(1)&0xFF==ord('q'):breakcap.release()cv2.destroyAllWindows()臨床指標(biāo):器官邊界定位精度:±0.3mm推理延遲:<28ms幀率:32fps(4K分辨率下)功耗:<7.5W(含顯示器)六、高級(jí)應(yīng)用開發(fā)6.1多模態(tài)數(shù)據(jù)融合JetsonThor實(shí)現(xiàn)視覺-激光雷達(dá)融合:importnumpyasnpimportcv2importopen3daso3dimportsensor_msgs.point_cloud2aspc2fromrosbagimportBag#讀取ROSbag數(shù)據(jù)bag=Bag('sensor_data.bag')#相機(jī)內(nèi)參K=np.array([[1200,0,960],[0,1200,540],[0,0,1]])T_cam_lidar=np.array([[0.999,-0.012,0.035,0.15],[0.011,0.9999,-0.008,-0.02],[-0.035,0.009,0.9994,0.08],[0,0,0,1]])#處理函數(shù)defprocess_frame(cloud_msg,image_msg):#轉(zhuǎn)換點(diǎn)云cloud=pc2.read_points(cloud_msg)pc=np.array(list(cloud),dtype=np.float32)[:,:3]#轉(zhuǎn)換圖像image=np.frombuffer(image_msg.data,dtype=np.uint8).reshape(image_msg.height,image_msg.width,-1)#點(diǎn)云投影到圖像pc_homogeneous=np.hstack([pc,np.ones((len(pc),1))])pc_cam=T_cam_lidar@pc_homogeneous.Tpc_cam=pc_cam[:3,:]/pc_cam[3,:]#過濾視野外點(diǎn)mask=(pc_cam[0]>0)&(pc_cam[2]>0)pc_cam=pc_cam[:,mask]#計(jì)算圖像坐標(biāo)uv=K@pc_camuv=uv[:2,:]/uv[2,:]uv=uv.astype(32)#繪制投影點(diǎn)foru,vinuv.T:if0<=u<image.shape[1]and0<=v<image.shape[0]:cv2.circle(image,(u,v),2,(0,255,0),-1)returnimage#遍歷bag數(shù)據(jù)fortopic,msg,tinbag.read_messages(topics=['/velodyne_points','/camera/image_raw']):iftopic=='/camera/image_raw':current_image=msgeliftopic=='/velodyne_points'and'current_image'inlocals():fused_image=process_frame(msg,current_image)cv2.imshow("LiDAR-CameraFusion",fused_image)ifcv2.waitKey(1)&0xFF==ord('q'):breakbag.close()6.2邊緣-云協(xié)同推理實(shí)現(xiàn)本地實(shí)時(shí)檢測(cè)與云端模型更新:importtorchimportrequestsimportjsonimporttimefromthreadingimportThread#本地模型(輕量級(jí))local_model=YOLO("yolov11n.pt").to("cuda")#云端模型配置cloud_config={"url":"/inference","api_key":"your_api_key","confidence_threshold":0.7}#推理隊(duì)列inference_queue=[]#云端推理線程defcloud_inference_worker():whileTrue:ifinference_queue:frame,timestamp=inference_queue.pop(0)#準(zhǔn)備數(shù)據(jù)_,img_encoded=cv2.imencode('.jpg',frame,[int(cv2.IMWRITE_JPEG_QUALITY),80])files={'image':('frame.jpg',img_encoded.tobytes(),'image/jpeg')}data={'timestamp':timestamp,'model':'high_resolution_v3'}#發(fā)送請(qǐng)求try:response=requests.post(cloud_config["url"],files=files,data=data,headers={'Authorization':f'Bearer{cloud_config["api_key"]}'},timeout=5)#處理響應(yīng)ifresponse.status_code==200:results=response.json()#更新本地模型(增量學(xué)習(xí))update_local_model(results['feedback'])exceptExceptionase:print(f"Cloudinferenceerror:{e}")time.sleep(0.1)#啟動(dòng)云端線程Thread(target=cloud_inference_worker,daemon=True).start()#本地推理流程cap=cv2.VideoCaptu
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 殘障活動(dòng)兒童策劃方案(3篇)
- 班級(jí)團(tuán)年活動(dòng)策劃方案(3篇)
- 車間清潔衛(wèi)生管理制度(3篇)
- 《GAT 974.58-2011消防信息代碼 第58部分:消防水源分類與代碼》專題研究報(bào)告
- 中學(xué)學(xué)生社團(tuán)活動(dòng)經(jīng)費(fèi)保障制度
- 養(yǎng)老院心理健康支持制度
- 養(yǎng)鴨技術(shù)培訓(xùn)課件
- 企業(yè)人力資源配置制度
- 養(yǎng)鴨保苗技術(shù)培訓(xùn)課件
- 交通違法行為舉報(bào)獎(jiǎng)勵(lì)制度
- 深圳市鹽田區(qū)2025年數(shù)學(xué)六上期末綜合測(cè)試試題含解析
- DB5203∕T 38-2023 特色酒莊旅游服務(wù)等級(jí)劃分與評(píng)定
- 四川省成都市嘉祥外國語學(xué)校2024-2025學(xué)年七年級(jí)數(shù)學(xué)第一學(xué)期期末學(xué)業(yè)質(zhì)量監(jiān)測(cè)試題含解析
- 華為客戶分級(jí)管理制度
- 雙向轉(zhuǎn)診職責(zé)與患者體驗(yàn)提升
- 2025年中考道德與法治三輪沖刺:主觀題常用答題術(shù)語速查寶典
- 2025屆北京豐臺(tái)區(qū)高三二模高考語文試卷試題(含答案詳解)
- 《四川省普通國省道養(yǎng)護(hù)預(yù)算編制辦法》及配套定額解讀2025
- 論語的測(cè)試題及答案
- 《機(jī)械制圖(第五版)》 課件 第9章 裝配圖
- 教師年薪合同協(xié)議
評(píng)論
0/150
提交評(píng)論