版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、AWS人工智能方案概覽技術(shù)創(chuàng)新 變革未來(lái)人工智能應(yīng)用的爆發(fā)金融科技醫(yī)療健康人工智能的行業(yè)應(yīng)用成果豐碩以及更多讓機(jī)器學(xué)習(xí)能夠?yàn)槊恳晃婚_(kāi)發(fā)者和數(shù)據(jù)科學(xué)家所用M L A W S : 我們的使命AWS上構(gòu)建的機(jī)器學(xué)習(xí)應(yīng)用多于其他任何地方亞馬遜在人工智能領(lǐng)域的大量深度創(chuàng)新商品智能推薦機(jī)器人與物流倉(cāng)儲(chǔ)智能語(yǔ)音助手亞馬遜自從成立以來(lái)一直在人工智能和機(jī) 器學(xué)習(xí)領(lǐng)域進(jìn)行大量投入,并且把我們的 知識(shí)與能力與客戶分享20181995智慧呼叫中心供應(yīng)鏈管理無(wú)人值守商店AWS提供了一系列工具使AI / ML為人人所用LexPolly RekognitionAWS AI/ML應(yīng)用服務(wù)易用性/簡(jiǎn)單性:利用AWS AI /
2、ML專業(yè)知識(shí)更多的定制化: 客戶特定的模型這些解決方案以久經(jīng)考驗(yàn),擴(kuò)展性強(qiáng)AWS產(chǎn)品和 服務(wù)為基礎(chǔ)Amazon EC2Amazon EC2Amazon EC2AmazonAmazonAmazon AWSAWSAWS (P2 and G2 GPUs)(CPUs)(ENA)S3DynamoDBRedshiftLambdaIoTGreengrassRekognitionVideoConnectTranscribe TranslateComprehend機(jī)器學(xué)習(xí)平臺(tái)深度學(xué)習(xí)框架Amazon ML Spark & EMR Kinesis BatchECSDeepLensSageMaker這些工具匯集成A
3、WS完整的AI / ML產(chǎn)品堆棧平臺(tái)服務(wù)基礎(chǔ)架構(gòu)GPUMobileCPUIoT應(yīng)用服務(wù)LexPolly Rekognition框架Apache MXNetTorchCognitive ToolkitKerasTheanoCaffe2 & CaffeTensorFlowAWS Deep Learning AMITranscribeTranslateComprehendAmazon Mechanical TurkAmazon SageMakerAWS DeepLens教育學(xué)習(xí)框架和基礎(chǔ)架構(gòu)用于深度學(xué)習(xí)的Amazon EC2實(shí)例 Amazon EC2 P3實(shí)例云端最快,最強(qiáng)大的GPU實(shí)例多達(dá)8塊NV
4、IDIA Tesla V100 GPU1 PetaFLOP計(jì)算能力 比P2快14倍300 GB/s GPU間通信 (NVLink) 比P2快9倍16 GB顯存,峰值為900 GB/sec內(nèi)存帶寬Amazon EC2 C5實(shí)例高性價(jià)比的CPU實(shí)例, 加速I(mǎi)NT8模型推理3.0 GHz Intel Xeon (Skylake)白金版處理器,并配有全新的Intel AVX-512指令集72個(gè)vCPUs, 144GB內(nèi)存 (比C4的性價(jià)比提升25%)基于全新Nitro虛擬化管理程序構(gòu)建AWS Deep Learning AMIs支持深度學(xué)習(xí)框架加快模型訓(xùn)練的速度對(duì)于希望在單獨(dú)的虛擬環(huán)境中預(yù) 先安裝深度
5、學(xué)習(xí)框架的pip包的開(kāi) 發(fā)人員。 適用于Ubuntu, Amazon Linux和Windows 2016版本預(yù)配置的環(huán)境便于快速構(gòu)建深度學(xué)習(xí)應(yīng)用Conda AMI基礎(chǔ)AMI對(duì)于想要一個(gè)干凈的環(huán)境設(shè)置私 有深度學(xué)習(xí)引擎存儲(chǔ)庫(kù)或進(jìn)行深 度學(xué)習(xí)引擎自定義構(gòu)建的開(kāi)發(fā)人 員。 適用于Ubuntu和Amazon Linux版本集成源代碼的AMI對(duì)于希望在共享Python環(huán)境中預(yù)先 安裝深度學(xué)習(xí)框架及其源代碼的開(kāi) 發(fā)人員,可用于CUDA 9 Ubuntu和 Amazon Linux版本中的P3實(shí)例A W S G r e e n g r a s s M L I n f e r e n c e在云端訓(xùn)練機(jī)器學(xué)
6、習(xí)模型在邊緣設(shè)備上加速機(jī)器學(xué)習(xí)推理應(yīng)用設(shè)備快速響應(yīng) 甚至在離線狀態(tài)使用Greengrass在目標(biāo) 設(shè)備上部署優(yōu)化的模型平臺(tái)服務(wù)收集和準(zhǔn)備 訓(xùn)練數(shù)據(jù)選擇和優(yōu)化 機(jī)器學(xué)習(xí)算法安裝和管理 訓(xùn)練環(huán)境訓(xùn)練和調(diào)試模型(不斷試錯(cuò))在生產(chǎn)系統(tǒng)中 部署模型擴(kuò)充和管理 生產(chǎn)環(huán)境機(jī)器學(xué)習(xí)應(yīng)用開(kāi)發(fā)生命周期確定業(yè)務(wù)需求Amazon高性能,可擴(kuò)展的算法分布式TensorFlow, Apache MXNet, Chainer, PyTorch自帶算法超參數(shù)調(diào)優(yōu)構(gòu)建訓(xùn)練部署的組件Amazon高性能,可擴(kuò)展的算法分布式TensorFlow, Apache MXNet, Chainer, PyTorch自帶算法超參數(shù)調(diào)優(yōu)構(gòu)建訓(xùn)練
7、部署構(gòu)建或者通過(guò)EMR中 的Apache Spark和 SageMaker Spark SDK.使用SageMaker托 管的Notebook實(shí)例.或者通過(guò)控制臺(tái)的點(diǎn)擊體驗(yàn). 或者自有設(shè)備(EC2, laptop, 等等)的組件Amazon高性能,可擴(kuò)展的算法分布式TensorFlow, Apache MXNet, Chainer, PyTorch自帶算法超參數(shù)調(diào)優(yōu)構(gòu)建訓(xùn)練部署訓(xùn)練一鍵式訓(xùn)練流式數(shù)據(jù)集+分布 式計(jì)算Docker / ECS訓(xùn)練好的模型既可以部 署在本地也可以部署在 Amazon SageMaker, AWS Greengrass, AWS DeepLens的組件Amazon高性
8、能,可擴(kuò)展的算法分布式TensorFlow, Apache MXNet, Chainer, PyTorch自帶算法超參數(shù)調(diào)優(yōu)構(gòu)建訓(xùn)練部署部署一鍵式部署低延遲,高吞吐, 高可靠自動(dòng)A/B測(cè)試自帶模型的組件Amazon高性能,可擴(kuò)展的算法分布式TensorFlow, Apache MXNet, Chainer, PyTorch自帶算法超參數(shù)調(diào)優(yōu)構(gòu)建訓(xùn)練部署內(nèi)置算法用于監(jiān)督學(xué)習(xí) 的XGBoost,F(xiàn)M,線性和預(yù)測(cè)算法K-Means,PCA 和Word2Vec用 于聚類和預(yù)處理卷積神經(jīng)網(wǎng)絡(luò)的 圖像分類用于話題建模的LDA和NTM,用于翻譯的seq2seq的組件Amazon高性能,可擴(kuò)展的算法分布式Te
9、nsorFlow, Apache MXNet, Chainer, PyTorch自帶算法超參數(shù)調(diào)優(yōu)構(gòu)建訓(xùn)練部署主流深度學(xué)習(xí)框架容器在單獨(dú)的Notebook實(shí)例中探 索和細(xì)化模型 部署在生產(chǎn)環(huán)境采樣數(shù)據(jù)使用相同的代碼在 實(shí)例集群上對(duì)完整 數(shù)據(jù)集進(jìn)行訓(xùn)練的組件Amazon高性能,可擴(kuò)展的算法分布式TensorFlow, Apache MXNet, Chainer, PyTorch自帶算法超參數(shù)調(diào)優(yōu)構(gòu)建訓(xùn)練部署自帶算法. 把算法代碼加入 到Docker容器中.選擇您首選的算法.發(fā)布到ECSAmazon ECS的組件Amazon高性能,可擴(kuò)展的算法分布式TensorFlow, Apache MXNet
10、, Chainer, PyTorch自帶算法超參數(shù)調(diào)優(yōu)構(gòu)建訓(xùn)練部署超參數(shù)挑優(yōu)模型自動(dòng)調(diào)優(yōu)用不同的超參數(shù)進(jìn)行大量的訓(xùn)練作業(yè). 搜索超參數(shù)空間提高模型精度一鍵式快速機(jī)器學(xué)習(xí)按需調(diào)整規(guī)模預(yù)裝通用工具方便訪問(wèn)數(shù)據(jù)源無(wú)需管理服務(wù)器Amazon Mechanical Turk建立AI系統(tǒng)的首要和最重要的挑戰(zhàn)是標(biāo)定過(guò)的真實(shí)數(shù)據(jù)需要人類智能來(lái)注解語(yǔ)音、視覺(jué)或語(yǔ)言數(shù)據(jù)集按需彈性低成本高質(zhì)量應(yīng)用服務(wù)人工智能應(yīng)用服務(wù)為易用性而設(shè)計(jì)Amazon訓(xùn)練數(shù)據(jù)Amazon機(jī)器學(xué)習(xí)方 法和模型通過(guò)API訪問(wèn)可擴(kuò)展,已訓(xùn)練,持續(xù)優(yōu)化的服務(wù),不需要大量的人工 智能和機(jī)器學(xué)習(xí)知識(shí)AWS人工智能服務(wù)的基礎(chǔ)組件Amazon數(shù)據(jù)科學(xué)的知
11、識(shí)技能豐富的人工智能應(yīng)用服務(wù)增強(qiáng)客戶體驗(yàn)Polly把文本轉(zhuǎn)換為逼真的語(yǔ)音Lex基于自然語(yǔ)言理解的會(huì)話界面Comprehend發(fā)現(xiàn)文本中的洞察和關(guān)系Transcribe為應(yīng)用增加語(yǔ)音到文本轉(zhuǎn)換的 能力Translate更加準(zhǔn)確和自然的翻譯服務(wù)Rekognition Image面部和物體的圖像分析和識(shí)別視覺(jué)文本語(yǔ)言Rekognition Video面部和物體的視頻分析和識(shí)別基于Rekognition Image&Video面部分析和識(shí)別身份驗(yàn)證通過(guò)將實(shí)時(shí)圖像與參考圖像進(jìn)行比較來(lái)確認(rèn)用 戶身份基于圖像和視頻的生物認(rèn)證確保交易安全面部識(shí)別在圖像和視頻的集合中查找相似的人臉大規(guī)模和高精度地自動(dòng)識(shí)別某一領(lǐng)
12、域中著 名、顯赫或成績(jī)突出的人士RekognitionLex和Polly助力個(gè)性化對(duì)話信息機(jī)器人為日常消費(fèi)請(qǐng)求創(chuàng)建機(jī)器人應(yīng)用機(jī)器人為移動(dòng)應(yīng)用程序構(gòu)建強(qiáng)大的接口企業(yè)生產(chǎn)率機(jī)器人簡(jiǎn)化企業(yè)工作活動(dòng)并提高效率物聯(lián)網(wǎng)(IoT)機(jī)器人啟用會(huì)話接口以進(jìn)行設(shè)備交互應(yīng)用場(chǎng)景新聞更新投資信息帳戶信息預(yù)訂交易支付帳單管理賬戶檢查銷售數(shù)字市場(chǎng)營(yíng)銷表現(xiàn)回答員工疑問(wèn)(福利,人 力資源等)穿戴式設(shè)備基于位置的個(gè)性化遠(yuǎn)程信息處理Transcribe, Translate和Comprehend挖掘語(yǔ)音交流中的洞察Transcribe將音頻文件轉(zhuǎn)錄為文本,使其易于搜索客戶服務(wù)電話記錄 添加自定義術(shù)語(yǔ)庫(kù)懷疑短語(yǔ)Translate實(shí)
13、時(shí)文本翻譯客戶支持網(wǎng)站Comprehend發(fā)現(xiàn)文本中的關(guān)系與洞察提取關(guān)鍵短語(yǔ)理解文本背后的情緒客戶支持電話社交媒體 reserved.Ok, you are now booked for a 9:00AM departure tomorrow out of San Francisco, arriving in Seattle at 11:45AM.Can you please rebook me for the same flight tomorrow?GreatThank you!DataDipCRMcontentHi Nikki Wolf, I see your flight was ca
14、ncelled today. How canI help you?Incoming customer call自然Amazon Lex聊天機(jī)器人使用與Alexa相同的技術(shù)動(dòng)態(tài)甚至在被問(wèn)到之前回答客戶的問(wèn)題個(gè)性化會(huì)話流程基于每個(gè)客戶進(jìn)行調(diào)整集成機(jī)器學(xué)習(xí)以改善客戶體驗(yàn)使用機(jī)器學(xué)習(xí)服務(wù)構(gòu)建文本分析解決方案 reserved.機(jī)器學(xué)習(xí)與生態(tài)系統(tǒng)Powerful GPU and CPU Instances分析Amazon AthenaAmazon Redshift and Redshift Spectrum Amazon EMR(Spark, Hive, Presto, Pig)AWS Glue Amazon KinesisAmazon QuickSight基礎(chǔ)服務(wù)數(shù)據(jù)湖存儲(chǔ)Amazon S3安全Access Control Amazon Macie EncryptionAWS Organizations計(jì)算應(yīng)用服務(wù)Amazon Lex Amazon PollyAmazon Transcribe Amazon Rekognition ImageAmazon Comprehend Amazon Rekognition Vi
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 口腔新入職護(hù)士培訓(xùn)
- 2026年四川化工職業(yè)技術(shù)學(xué)院?jiǎn)握新殬I(yè)技能測(cè)試題庫(kù)及答案
- 幼兒園食堂配餐間衛(wèi)生管理制度
- 胸科手術(shù)麻醉和肺隔離技術(shù)知識(shí)考試試題及答案解析
- 2026年企業(yè)產(chǎn)品研發(fā)部工作計(jì)劃
- 商業(yè)道德誠(chéng)信遵循承諾書(shū)(5篇)
- 流程管理責(zé)任擔(dān)當(dāng)承諾書(shū)(4篇)
- 電力企業(yè)發(fā)電設(shè)備維護(hù)合同
- 采購(gòu)申請(qǐng)審批單物資分類與需求評(píng)估
- 五年級(jí)數(shù)學(xué)思維訓(xùn)練教案:空間幾何模型構(gòu)建
- 山東省濟(jì)南市2026屆高三第一次模擬考試英語(yǔ)試題(含解析)
- 2026年中央廣播電視總臺(tái)招聘124人備考題庫(kù)及答案詳解(奪冠系列)
- 電磁輻射環(huán)境下的職業(yè)健康防護(hù)
- 馬年猜猜樂(lè)【馬的成語(yǔ)33題】主題班會(huì)
- 2025屆浙江省杭州市英特外國(guó)語(yǔ)學(xué)校數(shù)學(xué)七年級(jí)第一學(xué)期期末監(jiān)測(cè)模擬試題含解析
- (正式版)JTT 728.2-2024 裝配式公路鋼橋+第2部分:構(gòu)件管理養(yǎng)護(hù)報(bào)廢技術(shù)要求
- 施工、建設(shè)、監(jiān)理單位管理人員名冊(cè)
- 圍絕經(jīng)期管理和激素補(bǔ)充治療課件
- Rivermead行為記憶能力測(cè)試
- CNC加工中心點(diǎn)檢表
- GB/T 12224-2005鋼制閥門(mén)一般要求
評(píng)論
0/150
提交評(píng)論